タイムラインが「ゴミ」で埋まってる? 「AI slop」という現象を調べてみた

はじめに

なんかSNSがつまらなくなった気がする、と思ったことはないだろうか。

やたらと似たような画像、読んでも何も残らない文章、どこかで見たような動画。。。。AIっぽさを感じてしまい、心躍らない。。。

実はこの「なんか変」という感覚、世界中で同時多発的に起きていて、ちゃんと名前がついているらしい。

まず「slop」って何?

調べてびっくりしたのだが、「slop(スロップ)」という言葉が2025年の「今年の一語」に選ばれたらしい。

slopはもともとは、「こぼれた汚水」「残飯」「泥」などを意味する言葉だったが、現在ではAIによって大量生成された低品質で内容の薄いコンテンツを指すマーケティング・用語として認識されているようだ。

Merriam-Webster辞典(アメリカで最も権威ある辞書のひとつとのこと)が、「slop」をデジタル上の「ゴミ」「AIで大量生産される低品質なデジタルコンテンツ」として正式に収録した。American Dialect Societyという権威団体?も同年のWord of the Yearにこの言葉を選び、「もはやAI slopと言わなくても、slopだけで通じる段階になった」と説明している。

つまり、ぼんやりと感じていた「SNSのゴミ化」という現象に、世界共通の名前がついた、ということだ。

言葉が生まれると面白いことが起きる。「それ、slopだよね」と誰でも指摘できるようになり、問題がどんどん見える化されていく。

なぜタイムラインがslopで埋まるのか

ここが構造的に興味深いところ。

AIコンテンツはほぼゼロコストでAIが自動で無限に作れてしまう。

人間のライターが記事を一本書くのに数時間かかるとして、AIなら同じ時間で数百本出力できる。。。。

さらに厄介なのが、プラットフォームのアルゴリズムとの相性だ。ユーザーが反応したコンテンツに似たものをどんどん表示する仕組みなので、大量に投下され続けるslopの中からたまたまヒットしたら、それが瞬時に増幅され、またそれに似たslopが投下される、という循環を生むことができてしまう。

Tom's Guideはこれを「クリックベイト※より危険」と表現している。従来のクリックベイト記事は人間が書いていたぶん量に限界があったが、slopにはその歯止めがないというわけだ。

※クリックベイド:webサイトやSNSで、ユーザーの興味・関心を過剰に惹きつけ、クリックを誘導するために扇情的なタイトルやサムネイルを用いる「釣り」手法のこと

しかも単なる質の問題だけではなく、Financial Timesの報道によると、AI生成の人物像や投稿群で「信頼できる人」を演じさせ、投資詐欺などへ誘導するという手口にも使われているらしい。コンテンツの洪水が、詐欺の隠れ蓑になっているという話で、これはなかなか怖い。

なぜメディアは報道しない?

これは結構な社会問題なはずなのだが、メディアがほぼ報道していないと言う事実がある。
なぜか?
もしかしたら穿った(うがった)見方かもしれないが、AI大量生成コンテンツは、プラットフォームにとっては広告を増やす側面があるからではないだろうか。
対策に本腰を入れると、彼らのビジネスの方向性と逆行・衝突しかねないため、プラットフォーム側からしたら、それが偽物だろうがバズが生まれるのであれば歓迎している様に感じてしまう。

「AI生成ですよ」というラベルはなぜ機能しないのか

slopを社会課題と捉えるのであれば、AI生成とわかるようにラベルを貼ればいい、という話になるのだが、以前の記事でも書いたがなかなか上手くいかない。

例えば、C2PA(Content Credentials)という技術標準がある。Meta、Google、Microsoftなど大手が推進する、AI生成コンテンツに来歴情報を埋め込む仕組みだ。これがあれば、AIで作ったという履歴を発見できそうではある。

Washington Postが面白い検証をしていて、C2PAを埋め込んだAI生成動画を8つのSNSに投稿したところ、ほとんどのプラットフォームがそのメタデータを保持も表示もしなかった、という結果が出ている。

なぜそうなるかというと、C2PAの仕様自体が「メタデータは削除・破損して分離しうる」ことを想定していたのだ。つまり、仕組みの設計上、AIで作ったかどうかは元のデータには記録されているが、SNSに上げた瞬間にデータから消されていしまうという仕様だったのである。。。。

各社の対応もバラバラで、TikTokはラベル義務化を進めながら「再投稿されたらラベルが外れうる」と自ら認めている。MetaはAIラベルの表現を変更した際に誤検知や炎上が起き、設計の難しさを示した。The Vergeはこの状況を「大手はやってますアピールをしているが、本気でslopを抑える気があるのか?」と問い直している。

これから何が変わりそうか

では、これからもslopは増え続けるのか?

実は、いくつか興味深い動きが見えているようである。

まずYouTubeがAI生成の合成表示だけでなく、クリエイターの「なりすまし検出」へと対象を広げ始めている。コンテンツが本物かより、それが誰かを騙っていないか、という方向への進化だ。

TikTokは「フィードにAI生成コンテンツをどれくらい見たいか」をユーザー自身がコントロールできる機能の導入を進めているらしい。問題の解決をプラットフォームに任せるだけでなく、ユーザー側に選択肢を渡すアプローチである。

規制の面では、例えば、韓国がAI生成広告への表示義務を早期に導入する方針を示したりしており、消費者保護や詐欺対策の文脈から法整備が先行する流れができる方向に動くかも知れない。

おわりに

なんとなく感じていた「SNSのゴミ化」が、ここまで構造的な問題だったとは正直思っていなかった。

slopという言葉が生まれたことで問題は可視化された。

あとは誰がどう責任を持って対処するか、という段階に来ているのだろう。
自分のタイムラインを眺めながら、「これはslopか?」と考えてみると、なかなか考えされられてしまう。
100%AIなしに作る機会が減ってきてしまっている自分がそこにはいる。。。。。


参照情報

■ C2PA(仕様・公式情報)


■ Washington Post の検証記事


■ C2PA/AIラベリングを巡る報道・分析


■ 各プラットフォームの対応動向


■ AI slop 現象の言語化

変革ニュース [毎日配信中]

メルマガ登録

必ずプライバシーポリシー
ご確認の上、ご登録ください

\ 最新情報をチェック /