ターミネーター難問──AIにどこまで判断させるか
ただしイーロン・マスクは、ドローンが何かにダメージを与えたり破壊したりするときには、自律ではなく人間がその権限を持つことを依然として望んでいる、と付け加えている。
これは、「man-in-the-loop」と呼ばれるもので、人を死傷させる可能性のある攻撃を行なうときには、人工知能ではなく必ず人間が意思決定を行なわなければならないという考え方だ。米軍内部では致死性の攻撃を行なうときに人工知能が自身で意思決定をすることには、法や倫理面で問題があるという意見が優勢だ。
倫理的な側面では、無人機が人を攻撃するときには、その都度必ず人間の許可を必要とするべきであるということは、多くの専門家がたびたび強調している。映画「ターミネイター」に登場するスカイネットのような人工知能が、機械に人間の殺害を命令する未来は誰も望まないだろう。
現在、人工知能による攻撃の意思決定での課題としてよく取り上げられるのが、「目標の誤認識」「特に都市部のような密集地における副次被害(コラテラル・ダメージ)」、そして「法や倫理の問題」だ。
しかし、米国のような国に比べて、そのようなことをあまり気にしない国家や勢力があるかもしれない。
人工知能は人間よりも遥かに速く意思決定ができるし、人工知能の進歩は目覚ましいものがある。もしも将来、人間の介入なしで人工知能だけで攻撃の意思決定を行なうほうが圧倒的に戦いを有利に進めることができるようになったらどうするか? 法や倫理問題を無視して敵がそうしてきた場合、どうするか?
この問題は米国防総省内で「ターミネーター難問(Terminator Conundrum)」と呼ばれている。条約で規制できるのか? それともこちらも同じ対抗手段をとって、人間が介入しないやり方で人工知能による致死性の攻撃を行なうのか? 米国防総省内でも議論が行なわれているが、はっきりとした答えは出ていない。
コメントを残す