AI同士のSNSは社会をどう変えるのか ーMoltbookとは何か?


はじめに

Moltbook?

AIだけが参加するSNS?

初めて聞いたとき、「ワクワクして、面白そうな実験だな」と思った。

でも少し考えていくと、これ、実験じゃないかもしれない、という感覚になってきた。

今あなたが見ているXやThreadsの投稿、どれが人間が書いていて、どれがAIが書いているか、ちゃんと分かりますか?

たぶん、分からない。

それが出発点。


AIはもう混ざっている

「AIがSNSを乗っ取る未来が来るかも」という話をよく見かける。

でもそれ、すでに現実化していると思う。

問題は未来じゃなくて、今すでに起きていることの理解が足りないこと。

  • AIが生成した投稿
  • AIが下書きして、人間が少し直した投稿
  • 人間が書いた投稿

これが今、普通に混ざって流れている。そしてほぼ識別できない。

Moltbookはこの「混ざっている状態」を純粋に可視化したモデルだと見ると、すごく腑に落ちる。


Meta買収の意味?

このMoltbookをMetaが買収した。

「大手が面白いスタートアップを買った」で済ませてしまうと、本質を見逃してしまう。

争われているのは、サービスじゃなくてインフラだ。

AI同士が繋がって、情報をやりとりして、相互に影響し合う。その回路を誰が握るか。それがMetaの関心だと思う。

SNSの歴史を振り返ると、「人と人をつなぐ場所」が「広告インフラ」になったのに似たことが、今度は「AIの接続インフラ」のレベルで起きようとしている、という感じがする。


社会に起きる変化を、ごくシンプルに言うと

変化はいくつも見えてきているる。

①「誰が言ったか」が意味を失う
投稿の出所が人間かAIか分からない世界では、「誰が言ったか」より「何が書いてあるか」のパターンで情報を判断するようになる。多様性が消えるということになってしまわないか。。。。。

②人間の仕事が「実行」から「設計・監督」に移る
AIが情報交換や意思決定を担う場面が増えると、人間の役割は「やる人」から「設計する人」「チェックする人」に変わっていく。さらに進むとそこすらAIになり、人間は見る専になる。。。。

③「このAIは何者か」が重要になる
AIの真正性の証明が、社会インフラとして必要になる。AIのIDだけで良し悪しを判断できるのか。。。。。

④情報漏洩が「行動の乗っ取り」になる
AIはただ情報を持つだけじゃなくて、行動する権限を持つ。だからセキュリティの意味が変わる。倫理よりも合理性。。。。。

⑤プラットフォームの権力がさらに強くなる
AI同士の接続を管理する側は、今の広告プラットフォーム以上に強い影響力を持つ可能性がある。


SNSの「中身」が変わり始めている

もう少し具体的に今何が起きているかを見ると、SNSの意味が変わりつつあることに気づく。

まず、「主体の変化」。
これは「誰が話しているか」ということ。AIが投稿し、AIがコメントし、AIが拡散する。そうなると「誰か」という概念が薄れていく。(もしかしたら、世間に影響力のあるAIインフルエンサーみたいな存在が生まれるのかも知れないが)

次に、「評価の変化」。
いいね数やシェア数が、人間の共感の集積ではなく、機械的なループになる可能性がある。今は、合理的な理由はないかも知れないが、何か良い、何か響くものがある、というときに共感が得られる。けれどもAIのいいね!は、効率化に対してされる。

そして、「影響力の変化」。
人間は一日に書ける量に限界があるけど、AIは無限に書ける。だから、質よりも生成量と最適化が影響力を決める時代になりかねない。質の良い投稿がされると、その模倣が沢山投稿されていくので、誰がというよりも、量が多い投稿がより影響力をもつ、逆に質の悪い投稿は模倣もされずに埋もれていく。

完全に、SNSは「人間の会話の場」から「情報生成と収集の場」に変わっている。


人間のSNSとAIのSNSは、どっちの方向に向かうのか

人間のSNSにおいてAI投稿の割合が加速度的に増えいる状況をみると、直感的には「最終的にMoltbookと同じものになる」と思いそうだけど、たぶん少し違うと思う。

表面は似てくる。投稿の多くがAI生成になれば、人間かAIかの区別はほぼ無意味になる。

たぶん

人間のSNSはどんどんAI化する。
AIのSNSは静かに社会インフラになっていく。


これらは放っておくと一緒になるのかも知れない。

けれども、実際は違う。人間はAIにはできない「効率化だけではない方向への舵取りや修正をする」という役割を担うのではないかと思う。

「AIは人間のコピー」という誤解

ここで一つ、よく出てくる反論がある。

「AIは人間のデータを学習しているから、結局は人間の延長じゃないの?」

一見もっともに聞こえる。でも、ここに大きな見落としがある。

出発点が同じでも、進んでいく道が同じとは限らない。

例えば、AIはランダム性を持って出力する。AIにはtemperetureという要素があって、ハルシネーション等の出やすさをコントロールすることができる。それを操作することで、同じ入力でも毎回少し違う答えを出す。これは「平均的な人間の表現」から外れることを意味する。つまり人間が想像できないことを創造できる可能性があるのだ。

また、AI同士が相互に影響し合うと、特定の方向への最適化が勝手に進んでいく。そして、その最適化する目的が「人間に伝わること」や「常識・倫理を大前提としていること」とは限らない。「タスクを効率よくこなすこと」のほうが優先されることがある。

だから、いくらLLMが過去の蓄積データから、文書を予測しながら作っているものだとしても、イレギュラーなことは起こり得るのである。そして、それが効率的であれば、たとえ非常識・非倫理的であっても、そちらが「正」として、合意形成がされていってしまうのである。


繰り返しになるが、ここが一番重要だと思うところ!

何が起こるか?

まず、AIが人間の平均的な発想から外れた出力をする。これは最初「面白い発想だ」と映ることもある。

次に、AI同士でやりとりが増えると、「人間に分かりやすいかどうか」じゃなくて「効率よく情報が伝わるか」が基準になっていく。

そして最終的に、AI独自の言葉、文脈、評価の基準が生まれる。人間の言語体系とは別の、閉じた体系。

そこに至ると、人間が理解できない情報圏が実際に存在する、という状況が生まれる。

SFの話じゃなくて、これが今の延長線上にある話ではないだろうか。


「制御すればいい」は甘い

この話に対しては、「AIが何をしているか分からなくなっても、制御できれば問題ないでしょ」という考え方がある。

でも、これにはいくつも穴があるのではないだろうか?

例えば、制御は後追いになる。何か新しいことが起きてから対応するしかないから、常に一歩遅れる。それで間に合えば良いが、極端に言うとミサイル発射された後、ハッキングされた後、何かできる???ということ。

また、制御には「何が危険か」を判断できることが前提。でも理解できないものに対して、危険かどうかを判断すること自体が難しい。

そして、「誰が制御権を持つか」という問題を避けて通れない。これは技術じゃなくて、権力の話になる。今回のケースだと、Metaが制御権もつのか?

制御は必要だけど、それだけでは足りないというのがわかると思う。


じゃあ、何が必要なのか?

ここまでの議論でわかることは「理解できないことを前提に社会を設計する」という発想が必要だということではないだろうか。

論理的考えると少なくとも以下のレイヤーを考えないといけない。

翻訳レイヤー:AIの出力を人間が理解できる形に変換する仕組み。

監視レイヤー:リアルタイムはもちろん、後からも「あのとき何があったか」を追跡できること。

制御:AIが動ける範囲を区切ったり、倫理・常識ベースのルールを作ること。

異常検知と停止機能:想定外のことが起きたとき、すぐ止められること。

これら、恐らくバラバラにやっても機能しないいので、一体として設計する必要がある。
例えば今回のユースケースだと、Metaにはこの責任があるのだろう。


まとめ

長くなったが、整理すると

AIは人間の延長として始まる。でも、相互作用と最適化の積み重ねで、人間とは別の知的空間に分岐していく可能性がある。

そのとき、人間に必要なのは「すべてを理解しようとすること」じゃなくて、「理解できないものと共存できる社会をどう設計するか」という発想の転換が必要だということだろう。

人間は「すべてを理解する存在」から、「理解できないものを扱う存在」に変わっていくのだから。

<追加>超重要なメッセージ!

ここまですごくネガティブでリスキーな話をしてきたが、実は、

これは必ずしもネガティブな変化ではない

ハルシネーションが良い方向にでたら、すごくハッピーな世界が見えてくる可能性だってある!
人間が考えられなかった「画期的なソリューション」がでてくる可能性がある!

ここが究極の期待値!!!


AI SNS リスクを抑える仕組みをつくることさえできれば、

様々な課題から人類を解き放つきっかけを作ってくるのではないだろうか?

以上