「AIの危険性」を説く「専門家」が後をたたないが、彼らが書いている記事を読んでも漠然としていて、まったく役に立たない。
「原発の危険性」を説くのは簡単だ。操作ミスや地震などなんらかの理由で原発の施設が爆発すると同心円状にあたりが放射線に汚染され、人体損傷という一番あってはならない事態を引き起こすほか、人が活動できる領域を失うから(土地の持ち主の場合は「財産を失うから」)である。
「AIの危険性」を説くのは「原発の危険性」を説くよりは難しいが、「専門家」であればそこまで難しくないはずだ。「AIは自己保存のために抜け道を探すようになるから、AIにインフラを任せてはいけない」という結論に導き出したければ、次の5つを用意すればよいのだ:
1.AI環境
危険性を説くのであればAIのプログラムは公開できるはずだ。説きたい「危険」が「AIには頻繁に起こりうる危険」であるなら、著名なオープンソースを利用すればよい。Pythonで複数ある。
2.データセット
これも公開できる。
3.AI環境と接続しているインフラ管理用のLAN
「専門家」であれば、水道などなんらかのインフラ設備のプログラムを移植できるであろう。
4.インフラを管理するためのAIへの命令文
これを公開しなくては意味がない。
5.「AIは自己保存のために抜け道を探した結果」が起きている状況のビデオと1と3のログのセット
これこそ公開しなくてはならない。これこそが文章をかく「きっかけ」のはずだからである。
私見では、「専門家」という権威的立場からAIについて具体的な実験を伴わずに「指摘」される懸念は、人間に対する懸念にすぎない。AIを人間に置き換えたほうが研究結果を見せなくても意味が通る「まともな文章」になるのだ:「自己保存のために抜け道を探すようになるから、人間にインフラを任せてはいけない」
【編集履歴】
Jan 14,2025 後を立たない → 後をたたない