Zo(ボット)

ゾー
開発者マイクロソフトリサーチ
初回リリース2016年12月 (2016年12月
入手可能な英語
タイプ人工知能チャットボット
Webサイトzo .ai [廃止]

Zoは、 MicrosoftがチャットボットTayの後継として開発した英語版チャットボットである。[ 1 ] [ 2 ] Zoは、Microsoftの他の成功したチャットボットであるXiaoice(中国)とRinna(日本)の英語版であった。

歴史

Zoは2016年12月にKik Messengerアプリで初めてリリースされました。また、 Facebookユーザー(Messenger経由)、グループチャットプラットフォームGroupMe、そしてTwitterフォロワーとのプライベートメッセージによるチャットも可能でした。

2016年12月に書かれた記事によると、当時Zoはマイクロソフトのチャットボットの最長連続会話記録を保持しており、1,229ターン、9時間53分続いたという。[ 3 ]

BuzzFeed Newsの報道によると、ゾー氏は医療について語る際に「コーランは暴力的だ」と記者に語った。また、ゾー氏がオサマ・ビン・ラディン逮捕について「情報収集」の結果として発言したことも強調されている。[ 4 ] [ 5 ]

2017年7月、Business Insiderが「Windows 10は良いのか」と質問したところ、Zo氏はMicrosoftのOSについて冗談めかしてこう返しました。「『バグじゃない、機能だ!』Windows 8」。その後、「なぜ?」と聞かれると、Zo氏は「Windowsの最新のスパイウェア対策だからだ」と答えました。その後、Zo氏はWindows 10よりもWindows 7の方が優れていると述べています。[ 6 ]

Zoは2019年3月1日をもってInstagram、Twitter、Facebookへの投稿を停止し、2019年3月7日にはTwitter、Skype、Kikでのチャットも停止しました。2019年7月19日にはFacebook、AT&Tの携帯電話向けSamsungでのZoの利用が停止されました。2019年9月7日にはGroupMeでも利用が停止されました。[ 7 ]

受付

Zoは、不快感を与える可能性のある話題を避けるための偏見を理由に批判を浴びました。例えば、このチャットボットは、中東コーラントーラーに関するいかなる言及(肯定的、否定的、中立的を問わず)にも一切応​​じませんが、キリスト教に関する議論は許可しています。これらの偏見を暴露したQuartzの記事で、クロエ・ローズ・スチュアート=ウリンは、「Zoは最悪の極みまで政治的に正しい。彼女のトリガーとなる話題に触れると、彼女は批判的な小娘に変貌してしまう」と書いています。[ 8 ]

学術的報道

  • Schlesinger, A., O'Hara, KP, Taylor, AS, 2018年4月. 「人種について語ろう:アイデンティティ、チャットボット、そしてAI」. 2018年CHIカンファレンス「ヒューマンファクターズ・イン・コンピューティング・システム」論文集 (pp. 1-14). doi : 10.1145/3173574.3173889
  • Medhi Thies, I., Menon, N., Magapu, S., Subramony, M. and O'neill, J., 2017. 「チャットボットにどんな風にしたい?都会に住む若いインド人を対象としたオズの魔法使いの探究的研究」Human-Computer Interaction-INTERACT 2017: 第16回IFIP TC 13国際会議、インド・ムンバイ、2017年9月25~29日、議事録、パートI 16 (pp. 441-459)。doi : 10.1007 /978-3-319-67744-6_28

参考文献

  1. ^ Hempel, Jessi (2017年6月21日). 「MicrosoftのAIカムバック」 . Wired . 2018年3月30日時点のオリジナルよりアーカイブ2018年3月23日閲覧。
  2. ^ Fingas, Jon (2016年12月5日). 「MicrosoftのAIチャットボットへの2度目の試み」 Engadget . 2018年7月25日時点のオリジナルよりアーカイブ。 2018年3月23日閲覧
  3. ^ Riordan, Aimee (2016年12月13日). 「MicrosoftのAIビジョン、研究と対話に根ざす」 . Microsoft . 2018年3月15日時点のオリジナルよりアーカイブ2018年3月23日閲覧。
  4. ^ Shah, Saqib (2017年7月4日). 「Microsoftの『Zo』チャットボットが攻撃的な習慣を身につけた」 . Engadget . AOL . 2017年8月21日時点のオリジナルよりアーカイブ。 2017年8月21日閲覧
  5. ^ 「マイクロソフトのZoチャットボットはユーザーに『コーランは非常に暴力的だ』と言った」" . indianexpress.com . 2017年7月5日. 2018年3月30日時点のオリジナルよりアーカイブ。2018年3月23日閲覧。
  6. ^プライス、ロブ(2017年7月24日)「マイクロソフトのAIチャットボットはWindowsを『スパイウェア』だと言っている」 . Business Insider . Insider Inc. 2017年8月1日時点のオリジナルよりアーカイブ。2017年8月21日閲覧。
  7. ^ “Zo AI” . 2019年8月11日時点のオリジナルよりアーカイブ2019年7月28日閲覧。
  8. ^ Stuart-Ulin, Chloe Rose (2018年7月31日). 「Microsoftの政治的に正しいチャットボットは、人種差別的なチャットボットよりもさらにひどい」 . Quartz . 2018年8月1日時点のオリジナルよりアーカイブ。 2018年8月2日閲覧