BingのChat AIは回答を間違えることがあり、質問者がその正誤を確認しなければいけない

2月19日、日曜日、朝から天気が悪く、何度か目が覚めるも、結局寝過ごしました。

枕もとの目覚ましは、その後、思ったよりは正確に時を刻んでいて、キッチンの電波時計とさほど変わらない時間を示してします。

今日は天気が悪いので、一日どこへも出ることなしで過ごしました。

せめて、夕飯後のウォーキングぐらいはやらないと、いつか歩けなくなってしまいます。

今日の名古屋は、小雨、最低6度、最高11度、風速1m/s、湿度92%、昨日と同じような小雨の一日ですが、気温はさほど下がっても上がってもいません。

昨日と同様、BingのChat AIを楽しんでいます。

Microsoftが発表したのは2月7日といわれますので、ネットでもホットな情報が流れています。

現時点ではPC(Windows)のEdgeブラウザでBingを検索エンジンとして設定した場合に利用できる状態ですが、今後はスマホAndroidのBingアプリ等からも利用できるようになるとのことです。

検索結果の回答は、2000文字で、かなり滑らかな日本語文章です。

しかし、間違いもあるようで、私も練習として名古屋市のイタリアンレストランを検索して、回答で出てきたレストラン名を再度コピー入力して最寄りの駅を追加質問したら、同名の長野県のレストランの情報が出てきました。

追加質問にも、名古屋のと入れなければいけなかったようです。

また、全高1,550㎜以下の軽自動車で静粛性の高い車種を質問したら、その中にダイハツ・タントが入っていました。

追加質問でダイハツ・タントは全高1,550㎜かと聞いたら、そうですと答えるので、少し首を傾げましたが、これは明らかに間違いで、タントは全高1,755㎜です。

ダイハツ・タントは、何度かモデルチェンジをしていますが全高1,750㎜以下となったことはありません。

このような間違いはすぐに分かるので良いのですが、回答の正誤は自分で確認するよう、Microsoftは促しています。

そのために、回答の文章の出所はクリックすると簡単に分かる様になっています。

私と同じように、BingのChat AIを試す人が殺到しているようで、Microsoftは2月17日に会話制限を実施したようです。

Bing との会話は質問と回答の組み合わせを 1 回 (ターン) として 1 日 50 ターンまで、1 回のセッションでは 5 ターンまでに制限されたとのことです。

5 ターンの会話終了後に質問を続ける場合はホウキのアイコンをクリックして新しいセッションを開始する必要があるようです。

私の場合は、1日50回もChat AIに執心することはないので、Microsoftの制限は妥当と思います。

中には、意地悪な質問をする人がいて、Chat AIが混乱したり、とんでもない返事をすることがあり、Microsoftは対策に追われているようです。

私としては、今のところ使い勝手が快適なので、スマホで使用が可能になったら、Google検索の使用をやめてBingに乗り換えようと考えているほどです。