会話ボットはネット荒らしによって不適切な言葉を発するようになる

今日は火曜日、良い天気が続いているためか、気が緩み放しで朝から寝過ごしました。

大きなごみ袋を下げて歩いていくと、路は既に散歩や勤めの人が行き交っていました。

いつも置いている場所に、既に大きなゴミ袋が一つポンと置かれ網がかぶされていました。

坂の下りから、風が吹き上げてきます。

やがて木枯らしとなって、身を震わせるようになるのかもしれません。

今日の天気予報は、晴れ、最低10度、最高22度、風速0.83m/s、湿度36%、なんとものどかな日和です。

帰ってきてからまた2度寝して、1時間遅れで目覚めました。

生活がたるんできて、何やらお腹も出てきたような気もします。

朝食後、スマホでニュースを流し読みしていたら、会話ボットの記事が目に付きました。

ひと頃LINEでマイクロソフトが作ったAIのりんなが話題になったことがありましたが、最近はどうなったのでしょう。

私も試してみたことはありますが、変な質問をすると、ちんぷんかんぷんな返事が返ってきて要を得ないことがありました。

最近は歌を歌えるようになったそうです。

また試してみようかと思います。

りんなよりも早くマイクロソフトは中国で、Xiaoiceという会話ボットを公開しています。

Xiaoiceは何と読むのか、シャオアイスでしょうか。

一説にはりんなより進んでいるという噂を聞いたことがありますが、その地の文化を背景にして開発されているというので、中国語を解しない私のようなものには分かりません。

マイクロソフトの本国では、会話ボットTayテイをスタートしましたが、早々に停止してしまったそうです。

Tay自身は設定上は女性、若者らしく俗語や省略綴り、絵文字も多用します。

Tayはツイッター上でユーザーと会話するなかで突如、⼈種差別やナチス礼賛の⾔葉をぶちまけ始めたのだそうです。

結局Tayはほとんど稼働しないまま、公開してから16時間で停止に追い込まれました。

問題はこの人工知能が侮辱的ないし人種差別主義的メッセージをそれと認識できないところにあったそうです。

もちろんこの人工知能は人種差別主義的にプログラムされていたわけではないですが、差別的ジョークを大量に浴びせられるうちに、自分でも差別的ジョークを発するようになったとのことです。

「Tayは膨大な量の言葉を習得した。中にはかなり人種差別的で攻撃的なものも多数あった。ここで繰り返すことはしないが、例えばTayは『ナチスは正しかった』などと言った」とKelley氏は説明したそうです。

Tayは英語圏のネット荒らしたちによって、不愉快な存在に仕立てあげられてしまったということです。

現在はTayの後継としてZoが公開されているようです。

現在でも完全な人口知能は存在せず、会話ボットを揶揄して人口無能といわれることが多いそうです。