AIを搭載した戦車やミサイルの開発が進められている、「AIの軍事利用」の倫理的な問題点とは?
技術の進歩によって、人工知能(AI)を軍事利用する研究開発が各国で行われています。
しかし、人間に直接命令されなくても状況を判断して敵を殺したり拠点を破壊したりできる自律型兵器には、人間のような道徳観を持たないコンピューターの思考では測不可能であり、実用上に大きな問題があると指摘されています。
Future warfare will feature automomous weaponry - The Washington Post
https://www.washingtonpost.com/magazine/2021/02/17/pentagon-funds-killer-robots-but-ethics-are-under-debate/
Air Force uses artificial intelligence on U-2 Dragon Lady spy plane - The Washington Post
https://www.washingtonpost.com/business/2020/12/16/air-force-artificial-intelligence/
アメリカ国防総省ではAIの研究が積極的に行われており、武器開発を含むAI関連プロジェクトに2020年には9億2700万ドル(約1025億円)、2021年には8億4100万ドル(約887億円)の予算がおりています。
また、国防総省の高度研究プロジェクト庁は、AI関連プロジェクトを2019年から2023年の5年間で計画しており、20億ドル(約2080億円)の予算を見込んでいます。
(以下略、続きはソースでご確認下さい)
Gigazine 2021年02月25日 06時00分
https://gigazine.net/news/20210225-ai-weapon-ethical-problem/
引用元: ・【AI】AIを搭載した戦車やミサイルの開発が進められている、「AIの軍事利用」の倫理的な問題点とは? [すらいむ★]
日本のようなロボットに人間を殺してはいけないと言う
倫理規定は無いw
釣りか?
ロボット三原則はアイザック・アシモフの発案だよ。
(1)人間への安全性
(2)命令への服従
(3)自己防衛
>>5
逆に考えると,アシモフがロボット三原則を考える必要があったのは,アメリカ社会はロボットに無制限に人間に危害を加えさせかねないってことだったんじゃないか?
孔子が儒教を考えなくてはいけないほど古代中国はハチャメチャだったのと同じように。
アメリカに限らんだろ。日本を含む全世界でそうだよ。
アシモフがロボット三原則を著した1950年前後では,アメリカ人
にとって世界はアメリカだけ。
日本なんて原爆叩きこんで潰してやったばかりの国でもない地域な
んで,日本社会なんて前提にもしていなかっただろ。
>>24
自律ロボットを真面目に考えると論理の基盤に枷を嵌めないと共存できないね。じゃあその枷を考えてみよう。ついでにこれをネタに書いてみよう。
で、できたのがR田中一郎。(嘘です)
人間の命令も無く、単なる自動機械に殺されるのは詰まらん。
支那共産党とちうごく人に倫理の箍なぞないので
倫理リンリりんりんりー!とか言ってると敗ける。
兵器の倫理なんて
「目くそはいいが鼻くそは良くない」程度の無意味ルールなんだろ?
武器に組み込むのって基本的には、危険以外無いと思うぞ
ギロチン台に首置いて、縄切ったらどうなるのって言う感じ
非常に安価になったのでコストあたりの殺傷力が跳ね上がった
核兵器のようにコストあたりの殺傷力が跳ね上がったことを問題視するならわかるんだけどさ
ってなったら、ちょっと真剣に考える。
イクサに倫理w
ゆとりかよ?
勝ったもんが正義
負けたら賊軍なんだよ
旧日本兵の生き残りか?
化学兵器、生物兵器、ナパーム弾・・・、規制されてる兵器は多い。
ちゃんと倫理的に振る舞えよ。
これから最前線の無人化は加速すると思う
そうしないと自動兵器で一方的に人的損害を蒙ることになる
反政府活動家の首にとまって薬物を注入するだけ。
デスノート兵器として機能する。
昆虫兵器作ったら最強だよな。攻撃、スパイ、疫病ばらまき、農業妨害、何でも出来る。
いやー
東京大空襲や原爆ドカーンは人道的でしたね
ロボット三原則とかいうルールに完全に反するな
「ロボット」ではない別の名付けるからw
やっぱり戦死者数で決まる。
つまり、将来の人間兵士の役割は、勝敗の指標としての死だ。
何か問題があるのか(´・ω・`)?
蚊型の兵器が放たれて殺人ウイルスを流行させるだけで
敵を滅ぼすことができるようになる。
戦争は他の国家あるいは勢力に対し主に武力等を用いて強制的にこちらの要求を呑ませる事が主目的であり
味方及び敵勢力の損耗の激しさにより講和締結が困難な状況に陥りかねない
しかも両国とも人員や資源のリソース不足に伴い人間にとって生活に必要不可欠な食糧等インフラが破壊され
殲滅戦という誰も得をしない謎の世界を誕生させかねない
勝った側も負けた側に物資を要求しようともそもそも負けた側に生産能力が皆無になり
ちょっと勝った側とか語弊があるけれど許して
人間の指揮官が何億人を殺したやら
全員が道徳持ってたとでも
AIて別に人格あるわけじゃないからな。
そんなこと言ったら、戦闘機が敵機をロックオンしてミサイルで追尾するのも問題になるわ。
つうことは自爆攻撃が増えるってことじゃね。