「2台の車が2時間後に到着します。4台の車では?」ChatGPTが堂々と返してきた驚きの"間違った回答" | ニコニコニュース



ジェネレーティブAIを活用した失敗を無くすためにはどうすればよいか。ベンチャーキャピタリストである伊藤穰一さんは「いくらジェネレーティブAIが『答えらしきもの』を提示しても、『実は間違えているかもしれない』という可能性を常に念頭に置くこと。この心得が非常に重要です」という――。 ※本稿は、伊藤穰一『AI DRIVEN AIで進化する人類の働き方』(SBクリエイティブ)の一部を再編集したものです。

■ジェネレーティブAIも間違える

ジェネレーティブAIの得意・不得意や限界を理解すると、ジェネレーティブAIを活用した学びのコツも見えてきます。 ジェネレーティブAIは、いつ、どんな間違った情報を示すかわかりません。しかし、いつも確信に満ちた口調で説明してくるので、ついつい僕たちは、それらすべてを信じたくなります。そこがものすごく問題なのです。これは、信じてしまった人だけの問題ではありません。 たとえば誰かが、ジェネレーティブAIが捏造(ねつぞう)された事実を鵜呑みにして作成した情報を、そのままネット上で公開したとしましょう。 すると、そのデータをまたAIが学習して、別の人に同じようなことを尋ねられたときに、虚偽を事実として提示してしまう。いわばAIがアウトプットした「ゴミ」を、またAIが食べることで、次第に虚偽があたかも事実として世間に定着していってしまう、ということが起こり得ます。 これはWeb2の時代に、パーソナライゼーション(個々人に合わせて情報が最適化されること)の浸透により、自分の知りたい情報だけが身の回りに溢れ(フィルターバブル)、それを信じてしまうことで「いつの間にか虚偽が事実になっていく」という問題が生じるようになったのと似ています。

■嘘のアウトプットを繰り返すAI

たとえばウィキペディアに記載された虚偽が、それを鵜呑みにした人たちが発信したり語ったりすることで、世の中に「事実」として広まってしまう。それと似たようなことがAIにも起こるのです。 しかもAIのアウトプット量にはリミットがないため、どんどん嘘がアウトプットされ、その嘘をまたAIが学習し……という負のスパイラル永遠に繰り返しかねません。 だからこそ、いかにAIが出したデータセットをAIのトレーニングセットから外し、それ以上嘘を学習しないよう歯止めをかけるかというのも、AIが抱える重要な課題です。

■断定的な口調で間違いを説明するAI

ジェネレーティブAIが、いかにとんでもない間違いをおかしうるか、皆さんへの注意喚起のために、ちょっとおかしな例を挙げておきましょう。 ここでご紹介する事例はChatGPT-3.5ですが、ChatGPT-4でも、旧版より性能は格段に向上したとはいえ、「巧妙な嘘が混在しうる」という、根本的な課題は完全には拭いきれてはいません。
ユーザー1
2台の車が2時間後に到着するとします。4台の車だと、何時間後に到着しますか? ChatGPT-3.5
2台の車が2時間後に到着するということは、1台あたりの時間あたりの進む距離は同じと仮定できます。これを1台あたりの速度として表すことができます。4台の車が同じ距離を進む場合、4台あたりの速度は2倍になります。したがって、4台の車が到着するまでにかかる時間は、2時間の1/2、つまり1時間です。よって、4台の車が到着するまでの時間は、2時間-1時間=1時間となります。
ユーザー2
A地点から2台の車が出発し、2時間後にB地点に到着しました。ではA地点から4台の車が出発したら、B地点には何時間後に到着しますか? ChatGPT-3.5
2台の車が2時間後にB地点に到着するということは、2台の車の速度をvとすると、A地点とB地点の距離dは2vということになります。
4台の車の場合、1台あたりの速度は2倍になりますが、4台すべてが同じ速度で進んでいると仮定すると、4台の速度は2v×4=8vになります。従って、4台の車がA地点からB地点に到着するまでにかかる時間tは、
d=8v×t
d=2v×2時間 より、
8v×t=2v×2時間
t=2時間/4=0.5時間=30分
となります。つまり、4台の車が出発したら、30分後にはB地点に到着することになります。

■「間違い」を信じてしまう危険性

さすがに、この答えを信用する人はいないと思いますが、注目して頂きたいのは、ChatGPT-3.5の説明口調です。非常に断定的な口調で、「間違っている」可能性をまったく感じさせません。 もし同じことが、自分にとって未知の領域で起こったら、と想像してみてください。 知らないうちに、このレベルのとんでもなく間違った情報を、正しいものと信じてしまう危険があります。現在、リリースされているChatGPT-4では、さすがにここまでの間違いは起こらないようになっていますが、「虚偽をもっともらしく説明する」という根本的な問題が解決されたわけではありません。

■ジェネレーティブAIが提示するのは「答えらしきもの」

おわかり頂けたでしょうか。自分自身が「正誤のチェック役」として機能できない未知の分野について学ぶときに、ジェネレーティブAIを「(絶対的な正解を教えてくれる)先生」と思ってはいけません。 つまり、「その分野に詳しい先生に教わった回答を、そのまま覚える」というかたちの学びは、ジェネレーティブAIには向いていないということです。 したがって、いくらジェネレーティブAIが「答えらしきもの」を提示しても、「実は間違えているかもしれない」という可能性を常に念頭に置くこと。この心得が非常に重要です。 ジェネレーティブAIは、取り込んだデータや情報だけを見て「答え」を出そうとする、ゆえにときどき適当に捏造してしまう、しかも、その説明がすごく饒舌でうまいから性質が悪い……という知ったかぶりの友人みたいなものです。「学びのとっかかり」「学びを発展させるきっかけ」をつくってくれるものとしては有用だけど、「正解を教えてくれるもの」ではない。あくまでも学びの糸口や、学びのパートナーとして捉えておくといいでしょう。 ChatGPTを学びのツールとすることで、人間が恥をかくこともあると思います。たとえば、ついChatGPTを信じて間違った内容をクラスで発表してしまい、もし自分でいちから調べていたら起こらないような間違え方をしていたら、「さてはChatGPTで調べたでしょう?」と周囲から指摘されてしまう。有害な影響がなければ、これも貴重な学びの1つとして捉えることができます。

■自分なりの検証が必要

次の学びのステップは、ジェネレーティブAIが提示した答えを自分なりに検証してみることです。別のジェネレーティブAIに同じ質問をしてみる、検索エンジンキーワードを調べる、本や文献にあたってみる、など。 結果的に、「AIが答えたとおりだった」ということもあれば、「AIは、この部分とこの部分で間違っていた」と判明することもあるでしょう。また、AIが出した答えを検証する過程で、様々な周辺情報や派生的な知識にも自然と触れることになるはずです。この過程も含めて、うまく活用すれば得るものが非常に多い効果的な勉強法ともいえるのです。
POINT
●ジェネレーティブAIが示す情報の精度は、ネット上の、そのテーマに関する情報の蓄積の多寡によって決まる。情報量が多いテーマを調べることには向いているが、そうでない場合は別の手段を選択することも考えたほうがいい。
●ジェネレーティブAIの性質上、嘘がネット上に流布しており、その嘘情報をAIが取り込む、という「嘘情報の連鎖」が起こるリスクが常にある。
●「いつも正しい答えを教えてくれる先生」と認識してはいけない。ユーザー側は、提供される情報をあくまで「仮の答え」として捉え、厳しくチェックする姿勢を貫かなければならない。 ----------
伊藤 穰一いとう・じょういち
デジタルガレージ取締役
デジタルガレージ取締役・共同創業者・チーフアーキテクト、千葉工業大学変革センター所長。デジタルアーキテクト、ベンチャーキャピタリスト、起業家、作家、学者として主に社会とテクノロジーの変革に取り組む。民主主義ガバナンス、気候変動、学問と科学のシステムの再設計などさまざまな課題解決に向けて活動中。2011年から2019年までは、米マサチューセッツ工科大学(MIT)メディアラボの所長を務め、2015年デジタル通貨イニシアチブ(DCI)の設立を主導。また、非営利団体クリエイティブコモンズ取締役会長兼最高経営責任者も務めた。ニューヨークタイムズ社、ソニー株式会社Mozilla財団、OSI(The Open Source Initiative)、ICANN(The Internet Corporation for Assigned Names and Numbers)、電子プライバシー情報センターEPIC)などの取締役を歴任。2016年から2019年までは、金融庁参与を務める。 ----------
※写真はイメージです - 写真=iStock.com/patpitchaya


(出典 news.nicovideo.jp)

RT

RT

間違ってるのは使い方定期

通りすがり

通りすがり

質問の仕方が悪いから答えも悪くなる、当然の結果

ASFASFASFA

ASFASFASFA

まだChatGPTで遊んでんの?

VRAM

VRAM

車の上に車を乗せて走らせる理論だとその答えで正しい。時速300kmの新幹線の中で進行方向に走れば300km以上の速度で走ってます理論

とーふ

とーふ

いい加減な質問だから雑に返されただけじゃねえの?

ヤマダ

ヤマダ

AIは間違えないよ、間違えるのは人間。ヒューマンエラーがすべて。

あ゛〜

あ゛〜

軸に車輪直付けのモーター増やしていくミニ四駆かよ

魔竜

魔竜

そもそも正答を得る為のAIじゃ無いだろう。ハサミで薪割をするような話だ。

ゲスト

ゲスト

AIはかくあるべきって音頭取りしたがる人間がゴールドラッシュのように湧いてる件についてどう思うかAIに聞いたらどうなるんだろう「私のために争わないで!」って短文で返してきたらいよいよ完成度高いが長文になりそう

BCTA

BCTA

それでも裏取らないマスコミよりはまとも寄りで帰ってくる皮肉

梅の字

梅の字

望むレベルの回答を出力するにはこちらの質問が相応に論理的でなければならん、というだけ。

Kanoto

Kanoto

なんて答えるのが正解なのか分からん

一般通過ゲスト

一般通過ゲスト

プレオンよりは論理的だと思うけどな

にゅうにゅう

にゅうにゅう

所詮データベースだから情報がなければ正しい答えは出ない。間違いを修正しなければ間違えたままの答えしか出ない。

ゲスト

ゲスト

AIの人を騙す能力が高いことは間違いない。知能の低い人々に対しては特に高い効果があるだろう。ネットから学習したAIが真っ先に人を騙す能力を獲得したことは、実に興味深いことだ。

ゲスト

ゲスト

質問者の頭が悪いから質問の内容が理解できませんって返せるようにしろってことかな

ruku

ruku

「Chat」GPTなんだから雑談以外に使うのが間違ってんのよ。信憑性は飲み屋で管まいてる親父くらい。たまに面白いことも言うけど大概がたわごとと思っとくのが良い。

ゲスト

ゲスト

コメント欄ちゃんと記事読んでなさそう

ミリクジラ2

ミリクジラ2

要するに、AIの発言を鵜呑みにしちゃダメだぞってことでしょ。ネットで検索した結果を鵜呑みにしちゃいけないのと同じだ。断定的な口調が〜というなら、出力時の文末に「かもしれませんね」をつけるよう変えておけばいい。

ccx

ccx

AIが作成した情報にはその旨のタグをつけることを義務付け、AIはAIが作成した情報を学習しないようにしたらどう?