「オオカミと少年」と記憶していたものは「嘘をつく子供」だったようです。
この件に関してはレイトマジョリティだった自分ですが、ようやく ChatGPT を試しました。
ChatGPT は事実に弱い
断言はできないでしょうが、分野によってはデタラメですね。
カフェ
僕は「近くの駅周辺でおすすめのカフェはどこか?」と訊いてみました。
すると、その駅は福岡の西鉄の駅だと言われ、その周辺にあると思われるお店を紹介されました。
「この駅は西鉄ではありません。〇〇線です」と言うと「先ほどのは間違えていました」と訂正して新たに店の名前を答えてくるのですが、どれも実在しない店でした。
近所にあるマンションの名前の一部をとったような店の名前もありました。
「そのような店はありません」と言うと、深々と謝ってきた後で、再度お店を紹介してくるのですが、それもデタラメです。
過去に住んでいた町
僕は昔、千葉県松戸市に住んでいた頃があり、そこの町名を入れて「松戸市〇〇町について教えてください」と言うと「有数の森林地帯です」みたいな答えが返ってきました。まったくデタラメです。
基本的に嘘つき
すごくもっともらしく答えてくるから信用しそうになるのですが、内容は嘘ばかりで、どこからその情報がくるのか全く、想像できません。
訂正したり謝ったりするのは上手ですが、何回も尋ねていると腹が立ってきますね。だって謝っているのにまた間違いを堂々と言ってくるわけですから。
Bing Chat AI の方が信頼できる
僕は Bing Chat AI の方を先に使っていたのですが、そちらの方が信頼できます。
一応、実在のお店を紹介してくれました。ただ「カフェ」と言っているのに多国籍料理のような店を紹介してくるとかいうミスマッチはありますが、実在の店でその地域にありました。
また、Bing Chat AI は最後に関連するリンクを提示してくれるので、そのリンク先に行って情報を確認することができます。
まあ、さすがマイクロソフトだなあという感じはしました。
ChatGPT は虚構の作品ならいくらでも作りそう
おそらく、何か作ってくれと言えば、いくらでも作ってくるのでしょうね。
フィクションならいくらでもアイデアがありそうですが。
プログラムコードは強そう
知り合いに聞いてみたら、WordPress のコードはすぐに作ってくれて一応ちゃんと動作するらしいですね。
たぶん、開発者が得意な分野はしっかりとした答えが返るのでしょう。
結局は、人間がどのような情報をインプットするかによって、性能が変わってのでしょう。
ということで、その辺のことを誰か言ってないかなーと Google で調べてみたら、AI の研究をしている方の記事があったので、それをシェアして終わりにします。