何を書いても構いませんので@生活板130
http://kohada.open2ch.net/test/read.cgi/kankon/1676649790
※本スレに書き込む場合は>1をよく読み、ルールを守って書き込みをするようにお願い致します。

何を書いても構いませんので
143:名無しさん@おーぷん 23/02/24(金) 00:06:29 ID:4T.3h.L1
AIに推理問題を解かせてみた。

〇問題
A,B,C,D,Eの5人の人間います。以下のヒントから彼らを体重が重い順に並べなさい。
「AはBより軽いがDよりは重たい」
「BはCより軽いがEよりは重たい」
「EはAより重たい」


〇AIの答え
以下が体重が重い順に並んだ答えとなります。
E > D > A > B > C
解説:
・EはAより重たいとのことであるため、EはAより上に位置します。
・BはCより軽いとのことであるため、BとCの間には必ず誰かが位置します。また、BはEより軽いため、BはEより下に位置します。
・AはBより軽いがDよりは重たいとのことであるため、A、B、Dの順で位置します。
・最後に、EはAより重たいとのことであるため、Eは全員の上に位置します。


〇実際の答え
C>B>E>A>D

AIはまだ宿題を任せられるほど賢くはないみたいだ

149:名無しさん@おーぷん 23/02/24(金) 10:17:21 ID:On.0e.L1
>>143
興味深いな。
前に科学系ニュースサイトでAIの専門家がchatGPTについて解説してたけどそれによると
chatGPTはネット上の膨大な文章をディープラーニングで分析してある単語やある文章の次に来る確率が高い単語や文章をランク付けしてそれらを組み合わせて文章を作り、
さらにその文章を再びネット上の膨大な文章と比較することで不自然な文章構造になってないか確認して最終的な解答を作り出すんだそうだ。
なので文章の意味とか論理を理解してるわけじゃなくて質問文に含まれる単語や文法に対して確率論でそれっぽい返事をしてるだけだから時には間違った解答をしてしまうんだとか。
その推理問題もAIは問題の答えを考えて解答してるんじゃなくて問題文に含まれてる単語とか文法をもとにそれっぽい返事を作ってるだけなんだろうな。

150:名無しさん@おーぷん 23/02/24(金) 10:19:31 ID:z7.s1.L1
>>149
先日見かけたのだと、犯罪なんかしたことがない人が自分について
「この人は前科持ちだそうですが、何をしたんですか?」
と聞いたら、やってもいない犯罪について解説されたらしい

151:名無しさん@おーぷん 23/02/24(金) 10:23:40 ID:On.0e.L1
>>150
本当にその人が犯罪者かどうか考えてるんじゃなくて前科って言葉に続く言葉が何か確率論をもとにして解答したんだろうね。

154:名無しさん@おーぷん 23/02/24(金) 13:19:50 ID:he.pg.L1
>>143
面白い
相当学習の進んだAIが未だに小学生レベルの問題を間違えるって事は、
それだけ複雑で繊細な処理能力が人間の脳に備わってるって事だよね
脳って凄い

159:名無しさん@おーぷん 23/02/24(金) 19:25:57 ID:mf.b7.L1
>>149
ということは誤解にもとづいた誤った解説がされることのある分野や、
制度改正があったような分野は間違った回答をする可能性が高いってことかな。
実はとある誤解の多い分野について正しい解説ができるかどうか試してみたかった。
その中でさらにある専門用語を追加すると正しい解説が出来る可能性が高くなると見ているのだが。
今はアカウント新規開設が停止中で試せないんだな


※3月3日 報告を追加しました。
249:名無しさん@おーぷん 23/03/01(水) 00:13:24 ID:Pz.4q.L1
以前ChatGPTに推理問題を出したら間違いだらけの答えを返してきたって書き込んだものだけど
リアルの友人にそのことを話してその時のスレの書き込みもみせたら
「絶対嘘。AIは問題文を読み間違えたり知識問題を間違えることはあってもこういう数学的な間違いをするはずがない
嘘じゃないとしたらお前がAIの回答をスレに書き込むときに写し間違ってそれをAIの回答だと勘違いしたんじゃねーの」
的なことを言われてしまった
(実際はChatGPTの回答をそのままスレにコピペしたので写し間違えることはありえない)
なので目の前でスマホからChatGPTにログインして推理問題に対して矛盾だらけの回答をする様子を見せたら「嘘だろ……」ってすごくショックを受けてた
でも確かにChatGPTの理解力はすごいのに「・AはBより軽いがDよりは重たいとのことであるため、A、B、Dの順で位置します。」みたいな同じ文の中で明らかな矛盾をしてしまうっていうのは信じられないって人がいるのも無理ないかも

254:名無しさん@おーぷん 23/03/01(水) 10:09:31 ID:Dt.ya.L1
>>249
俺も試しに色んな問題をAIに解かせてみた。
旅人算(秒速5mで進むAを100m後ろからBが秒速10mで追いかけたら何秒後に追いつくか?など)
濃度計算(濃度5%の食塩水100gと8%の食塩水200gを混ぜたら何%になるか?など)
鶴亀算(鶴と亀が合わせて50匹。足の数は160本。鶴と亀の数は?など)
これらは全てきちんと正解したし解説も問題なかった。
でも
「自然数A,B,Cがある。AはBより大きいがCより小さい。A,B,Cの関係を等号不等号で表してください」
というのをやらせると
「AはBより大きいことを不等式で表すと、A > B となります。
また、AはCより小さいことを不等式で表すと、A < C となります。
これらを合わせて、A,B,Cの関係を不等号で表すと、以下のようになります。
C < A > B」
(文章はchatGPTのサイトからそのままコピペした)
と、解説は正しいのに最後の答えだけ間違えてた。
解説だけ読むと問題の意味も正しい答えも理解してるように思えるのになんでそれと明らかに矛盾する答えを出すんだろうか。
問題の趣旨や不等号を理解できてないのなら解説も間違えるはず。
不思議だ。