将棋のAi がなぜ強くなったのか、
作者(ポナンザの山本さん)でもわからないらしい。
https://youtu.be/OIrJ4pzs5c8 ←参照
それはちょっとした驚きだった。
人間にAi の進化がコントロールできてないという事だ。
考えないという事、もう十分だとAIは判断できるのだろうか??
例:家事AIが玉ねぎを切る動作を学習していった際、
人間はある程度で進化を望まなくなるが、AIはそれが無い。
仕舞には切りやすい形の玉ねぎを開発するのではないだろうか??
また、どっちでもいい時、人はどちらかを選ぶが、AIは正解を履歴を確認しながら選ぶ。(考えても正解が無いことを)
ランダムでよいという事のAi への取り込みが必要でないだろうか。
「足るを知る」という概念をAIに定義が必要だと思うのである