
AIの出力が間違っていることに、こだわる意味はないかもしれないと、ふと思いました。
つまり、AIの出力が間違っていても、問題ないのではないか?という話。
というのも、人間も間違った出力をします。
というか、もしかすると人間の方が間違った出力が多いかもしれません。
大切なことは、間違いに気づくこと、そしてその間違いを修正することではないでしょうか。
これは人間でも同様かなと思います。
そう考えると、AIに対する見方というか、AIの捉え方、使い方が変わるような気もしてきました。
つまり、AIに完璧を求めないということです。
間違った出力をするから、AIはまだまだだではなく、間違える前提で使うというか。
出力が変になる場合もあると思って使う感じ。
それは、もはや人間に仕事を振るのと一緒かなという気もしてきます。
そもそも、完璧なAIなんて、たぶん、一生できないのかなと。
というのも、情報は常に増え続けていきます。
地球上の情報をすべて把握できたとしても、宇宙はさらに広大です。
マルチバースがもし正しければ、この宇宙以外にも宇宙はあります。
パラレルワールドが存在するのであれば、さらに無数の世界が存在する可能性もあるのです。
そう考えたら、情報は当面無限にあると言えるでしょう。
それらすべてを知るというか、情報としてAIが学習するのは難しい。
であるならば、AIが完璧になることはないのかなと。
そうは言っても、やはり誤答率を下げたいというのは、AIを作っている側としては、今後ずっと目指していくことになる目標ではあります。
で、個人的にですが、AIの誤答率を下げる方法としては、いわゆるマギシステム的な方法がベストかなと。
マギシステムというのは、アニメ エヴァンゲリオンに出てきたコンピュータのことで、ざっくり言えば、3つのAIによって判断するというシステムです。
これは、現状でもすでに実現が可能。
僕達はすでに、マギシステムを手に入れていると言っても過言ではありません。
ただ、AIサービスを提供しているのが、競合他社なので、協力体制ができるのは、もう少し先になりそうな気もしますが。
けれど、確実に3種類以上のAIを使うのが普通になると個人的には思っています。
3というのは、回答が分かれたときに、多数派を作れるため。100%ではないですが。
つまり、次の時代は、AIの相互関係がかなり注目され、相対的AIみたいなワードが流行りそうだなと。
協調AIという感じかもしれません。
ちなみに、複数のAIを使って出力を比較するのは、手作業であれば、今すぐにできます。
実際に自分は試してみましたが、AIごとに特性というか、違いが出て興味深いです。
そういうAIの特徴を掴むと、またAIの使い方も変わってくるのかなという気がしています。