
アルゴリズムに含まれるバイアスをなくすための「バイアス報奨金プログラム」の考え
人種に関するデータが存在しないはずの医療システムで黒人が不平等な扱いを受ける人種差別が存在したり、超高精度な文章生成AI「GPT-3」に反イスラム教的なバイアスが存在したりと、時として、アルゴリズムにはバイアスがかかっていることがあり、その影響で傷つく人が出ることがあります。
この問題を解決するために、AI研究などを行う専門家が、バイアスの発見に対して報奨金を支払うプログラムを考えています。
Algorithmic Vulnerability Bounty Project (AVBP)
https://www.ajl.org/avbp
Using bug bounties to spot bias in AI algorithms
https://www.computing.co.uk/news/4028677/bug-bounties-bias-algorithms
「報奨金を出すことでアルゴリズムに含まれるバイアスを見つけてもらう」という発想は、ネットサービスやソフトウェアなどで行われている、バグ報奨金プログラムの考えを採用したものです。
(以下略、続きはソースでご確認下さい)
Gigazine 2021年03月19日 07時00分
https://gigazine.net/news/20210319-crash-project/
引用元: ・【話題】アルゴリズムに含まれるバイアスをなくすための「バイアス報奨金プログラム」の考え [すらいむ★]
そこまで賢くない
元文章を切り貼りしてるような挙動
基礎プログラムデータを入力してる人間の問題
必ずしもそうでないにしろ可能性はあるわな
純粋なAIの計算結果と人為的なバイアスの区別はできるのかな?
黒人やイスラム批判はサイレントマジョリティなんだろ
誤認識が結果に出てるなら誤認識そのものを倫理的に見付け出せば良くねと思うのは素人考えの範疇なんだろうか
その危惧もバイアスだったりしないか?
理想の値からのズレと解釈するかで
意味が変わるよね