川北英隆のブログ

AIの知識レベルへのはてな

公営ギャンブルの話題のついでに、AIの知識レベルについて一言。というのも、AIは膨大な量の情報を「読み」、それを知識として蓄え、特定の指示(すなわち問いかけ)に対して知識のポイントをアウトプットする。その知識が完璧でなければ間違ってしまう。
1つの事例である。昨日のブログを書く時、「ラスベガスで大儲け」の話題を取り上げたのがいつだったか調べようとした。
ブログに付けてもらった検索機能やネット全体の検索機能に「川北英隆 ラスベガス」などと打ち込んだのだが、出て来ない。試したのはグーグルだけだが(マイクロソフトは、その押し付けがましさが好きでないので使っていない)。仕方ないのでブログの原稿を保管してあるパソコンのフォルダーを検索した。ようやく2011/11/24だと知ることができた。
グーグルはネット全体を渡り歩き、そこで得られた情報や記述を「読み」、知識として集積している。そう思ったのが間違いだったようだ。多分、端っこにある情報(誰も見ないような情報)を無視しているのだろう。
昨日のネットの検索結果からさらに類推するに、「ラスベガス」を入力すると最近のブログはヒットするのだが、過去のものはヒットしないようだ。つまり過去の情報を無視するようにプログラミングされているのかもしれない。
もちろんのことだが、インターネットが発達していなかった過去の情報を膨大に蓄積しているとは考えられない。歴史を含めた過去が無視か無視に近い状態になる。
もう1つの事例は地図情報である。山歩きにグーグルマップを併用していることは以前に書いたと思う。このグーグルマップの情報も不完全である。
山歩きで見ることが多いので、町中はよくわからないが、里山では、目標物の位置が違っている場合がある。存在しない車道が書かれていることもある。見つける度に修正を提案している。当然、書かれていない情報も多い。
以上からすれば、問いかけに対するAIの答えが不完全だったり、間違っていたりする。偽情報を流されるというリスクは当面、横に置くとしても、AIの答えを信じるととんでもない落とし穴があるかと思う。

2023/05/16


トップへ戻る