最先端のAI画像認識モデルでも正しく認識できない画像まとめ
人工知能(AI)を用いた画像認識技術は自動運転車や防犯システムなどさまざまな分野で活躍していますが、最先端のパフォーマンスを実現するディープラーニングを用いた画像認識モデル「InceptionNet」であっても、画像を正しく認識できないケースが多々あります。
スタンフォード大学で機械学習やAIについて研究するアブバカル・アビド氏は、「最先端の画像認識モデル(InceptionNet)でも正しく認識できなかった画像」をまとめており、まだまだAIが人間並みの認識能力を有することは難しいと実感できます。
What Inception Net Doesn't See – Abubakar Abid – Zou Group @Stanford
https://abidlabs.github.io/Inception-Blindspots/
◆1:逆さまの車
自動車が逆さまに写っている場合、画像認識モデルは画像を「アナログ時計(analog clock)」や「レッカー車(tow truck)」に誤認してしまいます。
◆2:スライスしたリンゴ
InceptionNetはカットした果物でも正しく認識することができますが、リンゴの場合は「キュウリ(cucumber)」や「バナナ(banana)」と誤認されています。
◆3:パキスタンの新郎衣装
パキスタンの新郎が切る衣装は、「毛皮のコート(fur coat)」や……
(以下略、続きと画像はソースでご確認下さい)
Gigazine 2021年02月17日 21時00分
https://gigazine.net/news/20210217-deep-learning-vision-models-misrecognition/
引用元: ・【AI】最先端のAI画像認識モデルでも正しく認識できない画像まとめ [すらいむ★]
>>2
教師データを嵩増しする手法として
上下ひっくり返すとかずらすとか画質を粗くするとかを行っている場合もある
>>1で紹介されているモデルに関してはやってないんだろうな
で、砂漠を人の裸と認識するのは直ったか?
動画で前後のプロセス見せないのも問題だし
車と地面の関係が崩れると認識性能が落ちるっちゅー話ちゃうんか?
https://gradio.app/hub/abidlabs/hub-inception-blindspots
ここで調べてみて
果たして男と女を別の動物として分類するだろうか?
同様に白人と黒人を別の動物として分類するだろうか?
大人と子供、老人などを別の動物として分類するだろうか?
。。。。
チューニング次第だぞ
所詮特徴を抽出して数値化、閾値判定してるだけ
AIが無垢なるもの、などとくだらない妄想を抱くな
あれは知性でもなんでもない、ウツワみたいなもんだ、故に皆違うと判定するし、なんなら皆同じとも判定する