「ジェンダーバイアス」タグアーカイブ

ファイナンシャル・タイムズ、「識者のコメント」の女性比率が低いと警告するボットを開発

イギリスの経済紙 Financial Times が、記事に登場するコメント者の男女比率を改善すべく、コメント者が男性ばかりだと警告する仕組みを導入したと、ハーバード大のジャーナリズム研究機関ニーマン・ラボ英ガーディアン紙が伝えています。

代名詞(she や he でしょう)やコメント者の氏名のファーストネームから性別を推定して、記事に出てくる登場人物が男性ばかりの場合に、編集者に警告を出すそう。

現状はというと、記事に登場する人物やコメントを求めた識者の21%だけが女性。現読者層は男性が優位な Financial Times ですが、読者投稿欄でも女性のコメントを積極的に求めるなど、女性読者を増やし男性の意見に偏らないことを目指しているらしいです。

こういったプログラムの助けなしでも気をつけていた編集者はいるのかもしれませんが、実際の結果として女性の話をあまり取り上げていなかったとすれば、その不均衡を警告してくれるはいいことかもしれませんね。

履歴書の機械学習が女性差別になってしまい、Amazonが止めたというニュース

ロイターの記事 “Amazon scraps secret AI recruiting tool that showed bias against women

アマゾン社の中の人による匿名の情報ということだけれど、2014年に組まれたチームが、求職者からの履歴書を機械学習して(アマゾンレビューのように)星5つでランク付けをしたら、ソフトウェア開発者や他の技術者の高評価が男性に偏ってしまうことに気づいた、ということです。

学習に使った過去10年の求職者に占める男性の割合が多かったために、男性的な言葉を多く使った履歴書が優秀とされてしまったそうです。入力にバイアスが掛かってれば、結果にも掛かるのはある意味当たり前ですね。アマゾンに限らず、アメリカのIT企業で社員の男女比や有色人種比率が公表されたり比較されたりしている中で、これまでのやり方をベストとして強化すれば、属性にこだわらず優秀な人を取るということができなくなってしまいそうです。

記事によれば、結局、このチームは解散となったということ。今は別のチームで、重複したデータを削除するとか、多様性が保たれるようにスクリーニングするとか、よりマイルドな使い方を追及しているということです。