ChatGPTに正しさを求める人たちに物申す

  • ブックマーク
ChatGPTに正しさを求める人たちに物申す

みなさん、おはようございます!タカハシ(@ntakahashi0505)です。

こちらの記事は、タカハシが音声メディアVoicyの「スキルアップラジオ」にて放送した内容から、ピックアップしてお届けします!

今回のテーマは、ChatGPTに正しさを求める人たちに物申すです。

なお、以下で実際にお聴きいただくこともできます!

では、よろしくお願いいたします!

日経新聞のChatGPTのニュース

「ChatGPTに正しさを求める人たちに物申す」という内容でお話ししていきます。

まず、日経の「間違いだらけのChatGPT 対話AI、真の知能にはなお遠く」というタイトルの記事を紹介したいと思います。

見出しだけ流し読みすると

  • 「その知識は持っていません」 最新情報は苦手
  • 「兄は姉より年上です」 常識や論理を解(げ)せず
  • 簡単な計算でもミス

まあそんな見出しが並んでいまして、こんなにも間違いだらけなんだから人間のような知能はだいぶ遠いよねーとそんな話なんです。「だからAIはダメなんだ」と納得したいような読者はかなり喜びそうな雰囲気があります。

ただこの記事を実際よく読むとこんな風に書いてあります。

「つまり既存の対話AIは、事実を調べる目的には向かない。内容の真正性や正確性を問わず、自然文やソフトウエア・プログラムなどの文字列の自動生成に目的を絞って使うべきものなのだ。」

ChatGPTの仕組をきちんと説明した上で、このように伝えています。

みんなちゃんとこの記事を細かく読めば正しい情報を得られると思うのですが、斜め読みをしただけで判断するようなことが起きなきゃいいなと思っています。

あと、ChatGPTを追って発表したGoogleのBardについても、その回答に誤りがあったということで株価が暴落したというニュースもありました。

なので、こういう「だからAIはダメなんだ」という言説が出てきてしまうかもしれませんが、そういう言説に対して2点、物申していきたいなと思います。

ChatGPTの仕組み

正しい情報を返すための仕組みではない

ひとつめは、ChatGPTは正しい情報を返すなんてひとことも言ってないし、そもそもそういう仕組ではないという話しなんですね。

ChatGPTの仕組みはかなりシンプルです。

手前の文に対して次に確率的にありそうな続きの文字をつなげていくというシンプルな機能だけなんですね。確率的に返しているだけなんで、そもそも正しい情報を返す保証なんてないんです。

よく使われている「それっぽい文章を返す」というのが本当に的を得ていると思います。

最新情報は持っていない

過去のWeb上のデータをもとにAIモデルを作っているので、もちろん最新の出回っていない情報は持ち得ないわけです。

スタンスとしてユーザーが生徒という立場で質問をして、先生であるAIから正しい答えをもらう、みたいな生徒対教師の上下関係を期待しちゃうんですがそそういう使い方をするのは間違いです。

むしろこれは逆で、ユーザーが問いを投げかけてそれっぽい意見が返ってくる。その価値を判定をするのはユーザー自身なので、むしろ上下関係で言うと逆って言う話しなんです。

どんな問いにもなんとなくそれっぽい文章を返す

ChatGPTのどこがすごいかというと、どんな問いに対してもそれっぽい文書を返すということなんです。

これまでは専門的な質問に対しては、その専門的な知識や経験を持っている人でないとなにも回答できなかったわけなんです。

プログラミングに対する質問はそのプログラミングが得意な人しか回答できない。プログラミング知らない人は「知らない」としか回答できないわけです。

ChatGPTなら正しいかどうかは保証はしないが、なにがしかの回答は返ってくる。プログラミングのコード案をだしてといえば出してくれるし、その解説もしてくれるわけです。

その例で言うと編集者の立場の人に記事のタイトル案を出してもらうみたいなことも、これまではそれなりのコストがかかったわけですが、ChatGPTならそれっぽいやつをいくつか出してくれる、というようなことが実現できるわけです。

いわば回答については全く無責任だけど、きいたらすぐに答えてくれる、そういう専門家とかいろいろな役割の人たちの集団とのつながりが一気にできた、そんなメリットをChatGPTがもたらしてくれてるのかなと思っています。

人間だって正しい答えを出せない

もうひとつ、人間だってたいして正しい答えを出せないという話をしたいと思います。

ChatGPTがどこかの入試の合格ラインをとったとかそういう話が出ているんですが、人間だってそもそもいくら勉強してもなかなか100点を取れないわけですよね。そもそも間違える生き物です。

例えば人間があれこれ正しいと思って書いた文章でも、他人が見たらてんで間違ってるということもありますし、ある程度知識や経験があったとしてもなんかすごく疲れていたら、どうしてこんなこと書いてるんだ?という記事を書いてしまうこともあるかも知れない。

人のアウトプットっていうのはそもそもその正しさには揺らぎがあるわけです。すべての質問に正しく回答できないとその人は知性がないかというとそうではないし、人間の知能が完璧かというとそうでもないわけです。

記事の論調として、正しくないから人間並みの知能には程遠いみたいなことが書かかれていますが、そもそも人間だって大いに間違えるものので、そもそも知能って何という話になるかなと思います。

この2つ目のポイントで何が言いたいかというと、知能とか知性とかそういったものを質問に対する回答の正しさだけで測ろうとするのはかなり乱暴なんじゃないかなと思います。

AIの特性を知って武器として活用する

ひとまずAIは正しい回答を返す先生ではないということを強くお伝えしたいなあと思っています。そしてその評価軸だけでAIを判断しようとすると、今のAIは全く活用できなくなるので注意が必要です。

ChatGPTが得意とすることは、正しい質問に回答するというところとは別にありますので、そこにフォーカスして、それが自分たちの武器としてどう活用できるかを考えるべきかなと思っています。

まとめ

ということで、今日はVoicy「スキルアップラジオ」の放送から「ChatGPTに正しさを求める人たちに物申す」をお届けしました。

新しい技術情報についての話だったのですが、今後こういった新しい技術がどんどんでてくると思います。自分ひとりでがんばって全部キャッチアップするのは大変なので、ぜひコミュニティなどを上手く利用して必要な情報をきちんと取り入れていくという行動が求められていくと思います。

タカハシのVoicyの放送はこちらからお聴きいただけます。

チャンネルのフォロー、コメント、SNSでのシェアなどなど、楽しみにお待ちしております。

では、また。

  • ブックマーク

この記事を書いた人