Meta は、ユーザーが自分のフィード上に表示されるスパムやボットの量をより詳細に制御できるようにする新しいツール セットを Instagram 上で開始します。ユーザーには、投稿したコンテンツがコミュニティ ガイドラインに準拠しているかどうかも通知されます。新しいツールは今後数週間かけて段階的に公開される予定です。
Instagram は、コメント、タグ、ストーリービュー、フォロワー内のスパムをチェックする自動検出システムを開発および改良しました。モデレーション システムは、偽のフォロワーやスパム コンテンツにフラグを立て、ユーザーの時間を節約するためにこれらのコンテンツを一括削除するオプションをユーザーに提供します。
スパムまたはボットの疑いのあるアカウントは、ユーザーが表示できるように別の受信箱にフィルタリングされます。また、アカウントがスパマーでない場合は、リクエストが承認された後にウォッチリストに追加されます。そうしないと、すべてのアカウントは 30 日後に自動的に削除されます。スパムとしてマークされたプロフィールからの投稿は、承認されない限りコンテンツ作成者のアカウントに表示されません。アカウント所有者は、システムによってフラグが付けられたタグ リクエストを表示、一括削除、または承認できます。
Instagram は、コンテンツ ポリシーに違反する投稿を検出した場合にもアプリ内通知を送信します。これは、Instagram の最近のアップデートで、いつ投稿が Explore ページに表示されなくなり、アカウント所有者が同じ操作を繰り返すことができないようにすることが示された後に行われました。しかし、インスタグラムは、ストーリーに関しては、プラットフォームによってスパムとみなされたアカウントからのビューを非表示にしようと依然として努めていると述べた。
同社は、疑わしいキーワードを含む情報を非表示にできる「コンテンツキーワード非表示」ツールを2021年に開始した。 Instagramは今後のアップデートで、高度なコメントフィルタリングツールを通じてスパムのフィルタリングを開始すると述べている。 Instagramでは、ハラスメントやスパムの問題が長い間注目されてきた。同社は、プラットフォーム上でポルノコンテンツを蔓延させるボットに対処する必要があった。
ただし、同社は不適切なコンテンツの取り締まりと、プラットフォーム上での自由なアイデア交換の許可との間でバランスをとる必要がある。最近、インスタグラムはガザ戦争中に親パレスチナコンテンツを検閲した疑いで厳しい監視の対象となった。