第1回 第6世代戦闘機は無人機か? 有人機か?──有人機の補佐役から競合相手へ

ターミネーター難問──AIにどこまで判断させるか

ただしイーロン・マスクは、ドローンが何かにダメージを与えたり破壊したりするときには、自律ではなく人間がその権限を持つことを依然として望んでいる、と付け加えている。

これは、「man-in-the-loop」と呼ばれるもので、人を死傷させる可能性のある攻撃を行なうときには、人工知能ではなく必ず人間が意思決定を行なわなければならないという考え方だ。米軍内部では致死性の攻撃を行なうときに人工知能が自身で意思決定をすることには、法や倫理面で問題があるという意見が優勢だ。

倫理的な側面では、無人機が人を攻撃するときには、その都度必ず人間の許可を必要とするべきであるということは、多くの専門家がたびたび強調している。映画「ターミネイター」に登場するスカイネットのような人工知能が、機械に人間の殺害を命令する未来は誰も望まないだろう。

現在、人工知能による攻撃の意思決定での課題としてよく取り上げられるのが、「目標の誤認識」「特に都市部のような密集地における副次被害(コラテラル・ダメージ)」、そして「法や倫理の問題」だ。

2016年1月にブルッキングス研究所が主催した21世紀の安全保障とインテリジェンスに関するイベントにて、ターミネーター難問にも言及した米空軍のポール・セルバ将軍/統合参謀本部副議長(Image:DoD)

しかし、米国のような国に比べて、そのようなことをあまり気にしない国家や勢力があるかもしれない。

人工知能は人間よりも遥かに速く意思決定ができるし、人工知能の進歩は目覚ましいものがある。もしも将来、人間の介入なしで人工知能だけで攻撃の意思決定を行なうほうが圧倒的に戦いを有利に進めることができるようになったらどうするか? 法や倫理問題を無視して敵がそうしてきた場合、どうするか?

この問題は米国防総省内で「ターミネーター難問(Terminator Conundrum)」と呼ばれている。条約で規制できるのか? それともこちらも同じ対抗手段をとって、人間が介入しないやり方で人工知能による致死性の攻撃を行なうのか? 米国防総省内でも議論が行なわれているが、はっきりとした答えは出ていない。

ダン シャープ(著)、 時実 雅信(訳)、ニュートンプレス, 2021年3月31日, ISBN-13 : 978-4315523584
連載「米国の軍高官・専門家から見る 第6世代戦闘機の行方」第1回─終─

コメントを残す

メールアドレスが公開されることはありません。 が付いている欄は必須項目です

CAPTCHA


日本語が含まれない投稿は無視されますのでご注意ください。(スパム対策)