以前より、Twitterではリプライ時にセンシティブな内容を含んでいる場合、いったん立ち止まって考えるようiOSアプリでテストをしていました。これが2020年5月頃の話です。その後2020年8月にiOSやAndroidアプリ、Webにてテストを行いつつ、並行してツイート時にリプできる対象者を絞る機能を実装していました。
そして今回改めて、リプライ時に立ち止まって考えさせるべく、iOSユーザー向けにUIデザインを変えたテストを再開したようです。
Twitterの内容
冒頭で述べた内容が全てなのですが、一応Twitterからの告知内容をご紹介します。
When things get heated, you may say things you don’t mean. To let you rethink a reply, we’re running a limited experiment on iOS with a prompt that gives you the option to revise your reply before it’s published if it uses language that could be harmful.
— Twitter Support(@TwitterSupport) 2020年5月6日
引用)@searchliaisonより和訳
You had feedback about prompts to revise a reply so we made updates:
If you see a prompt, it’ll include more info on why you received it
We’ve improved how we consider the context of the conversation before showing a prompt
This is now testing on Android, iOS, and web.— Twitter Support(@TwitterSupport) 2020年8月11日
■修正を促すオプションが表示されている場合は、(Twitter側で)そう判断した理由の詳細が表示されます。
■修正を促すオプションを表示するにあたって、会話の文脈を理解する方法を改良しました。
現在、Android、iOS、Webでテストを続けています。
引用)@searchliaisonより和訳
Say something in the moment you might regret? We’ve relaunched this experiment on iOS that asks you to review a reply that’s potentially harmful or offensive.
Think you’ve received a prompt by mistake? Share your feedback with us so we can improve.— Twitter Support(@TwitterSupport) 2021年2月23日
引用)@searchliaisonより和訳
つまり、リプライ時にセンシティブな内容(攻撃性が高いと思われるような単語等)を含んでいるとTwitterのAIが判断した場合、「ここの部分がこうなってますけど大丈夫ですか?」みたいな表示がされ、それについて編集し直したり削除したり、はたまたそのまま送ったりする選択肢が表示されるようになるわけです。この見せ方や判断軸について、Twitter側でテストを繰り返しているようです。
テスト長くない?
Twitterは今回のこの機能について、ずいぶんと慎重に取り組んでいるように感じます。個人的には過剰になりすぎているのでは? と思うほどです。むしろ実装してからの改良でも良いのではないかと思うくらいです。
ただ、Twitterはフリート機能の際にも言っていた通り、Twitterはユーザー間のコミュニケーションが少ないせいでマネタイズ機会を損失していると考えているようです。あまりにも個人完結利用が多いので、ユーザー間コミュニケーションが活性化せず、他のSNSと違ってビジネスを図りづらいとのことでした。
そう考えると、リプライにおける今回の機能がユーザーストレスを生んでしまい、ユーザー間コミュニケーションの低下を招いてしまうのを恐れているのかもしれませんね。
いずれにしましても、長いテスト期間はまだまだ続きそうです…。