「ジェンダー」タグアーカイブ

Q – 性別のない合成音声=ジェンダーレス・ボイスを各社音声アシスタントに採用呼びかけ

Q は、グーグル/アップル/アマゾン/マイクロソフトなどIT大手のスマートスピーカーや音声アシスタントに向けて提案された、男性でも女性でもない合成音声です。

サイトトップでクリックすると、その男女どちらでもない合成音声を聴いてみることができます。

デンマーク・コペンハーゲンのLGBTパレード団体やAIのバイアス問題に対処しようという団体らによって制作されたこの音声は、GoogleアシスタントやAmazonアレクサなどの音声アシスタントの音声が「男性声」「女性声」からの選択を強いていることに対する問題提起だということ。

言われてみれば、機械で合成しているのだから人工音声で男性か女性の声を選ばないといけない理由はないわけです。

「テクノロジー企業は、合成音声の性別を選択できることで人々がより快適になると信じ、性別をテクノロジーに持ち込んでいます」

「残念なことに、これらによって性別が必ずはっきりどちらかの2つに分かれる、というステレオタイプの永続化が補強されてしまうのです」

なるほど。応答ができて情報が返せればいいのですから、機械の合成音声にわざわざ性別を与える必要はないのかもしれません。男性声・女性声が今すぐ無くなるとは思えませんが、中性声を追加することはそれほど抵抗なく採用してもらえる可能性もあるのではないでしょうか。

このQの音声モデルは、数千の候補者から数人を選び、その人たちに話してもらった声のピッチを変換することで作ったと、紹介動画にありました。

「世界初のジェンダーレス音声」とサイトでは言っています。これまでも中性的な音声合成はいろいろ存在していたと思うので、世界初は言い過ぎではないかとも思いますが、ジェンダー中立を訴えて作成されたという意味ではこれまでになかったものでしょうか。

via Hacker News

フェイスブックで「女性の友達の写真」は出るのに「男性の友達の写真」は出ない

友達の検索ではなく一般の検索の方ですが、検索ボックスで「女性の友だちの写真」(Photos of my female friends)と入力するとつながっている女性の友人のアップロードした写真が出てくるのに、

「男性の友だちの写真」(Photos of my male friends)と打っても男性の友人の写真は出てきません。

代わりに、何らかの検索した結果の写真が表示されました。

ベルギーの Facebook ウォッチャー、Inti De Ceukelaire さんがツイッターで紹介したこの謎現象

TheNextWeb も書いてますが、Facebook が今の形になる以前の大昔(2004年)、まだ名前が Facemash だったころ、ハーバード大の女子学生の顔に点数をつけるサービスだった、という過去を思い出させるバグです。さすがに今わざとやったわけではないでしょうけど。

… たぶん。

via TheNextWeb

Gmail の文章サジェスト機能、ジェンダーバイアスの強化を避け性別の人称代名詞を(当面は)避けることに

次を予測して文章を提案してくれるスマートコンポーズ機能

Gmail の実験機能の一つに、スマートコンポーズ(Smart Compose)という機能があり、Gmail の言語設定を英語にした上で設定でオンにすると使えるようになります。

この機能は、途中まで入力した文章を基に、全文を予測してグレーの文字で提案してくれるという機能です。

日ごろから日本語入力でIMEを使っている我々にしてみれば、入力時にある程度先を提案してくれる(たとえば、「おは」と書いたら「おはようございます」が候補に出る)のは英語圏の人たちよりもなじみ深い仕組みかと思います。Gmail の Smart Compose は、それを文の終わりまで拡張したようなものになります。

実験機能でオンにしないと使えないとはいえ、Gmail から送られるメッセージの11% でこの機能がオンにされているということで、英語圏のヘビーユーザーは結構使っているのかもしれません。

データ学習から提案される ‘he’ や ‘she’ のバイアス

ところが、Gmail の担当チームは、このサジェストが ‘he’ や ‘she’ といった三人称の人称代名詞を、既存データのバイアスに影響されて選んでしまうことに気づいてしまったそう。

「私は来週投資家に会うつもりだ。君も…」 と書こうとすると「…に会うかい?」と、必ず「彼」が出てきたというのです(「投資家」の場合)。

Google が持っている膨大な文章データから自動生成するとそうなる、ということで、特定の職業の性別を男女どちらかに推定しまうことに Google 自体の罪があるわけではありません。多くの人々が内包しているバイアスなのでしょう。

しかし、このようなサジェスト機能をみなが使い続けると、サジェストがまた次に生み出される文章のバイアスを強化してしまう可能性がありますね。バイアスの無い she/he の提案が今は難しいと考えたチームは、さしあたりこのような提案になる場合は提案そのものをしないという決定を下したそうです。

via Reuters via TheNextWeb

ファイナンシャル・タイムズ、「識者のコメント」の女性比率が低いと警告するボットを開発

イギリスの経済紙 Financial Times が、記事に登場するコメント者の男女比率を改善すべく、コメント者が男性ばかりだと警告する仕組みを導入したと、ハーバード大のジャーナリズム研究機関ニーマン・ラボ英ガーディアン紙が伝えています。

代名詞(she や he でしょう)やコメント者の氏名のファーストネームから性別を推定して、記事に出てくる登場人物が男性ばかりの場合に、編集者に警告を出すそう。

現状はというと、記事に登場する人物やコメントを求めた識者の21%だけが女性。現読者層は男性が優位な Financial Times ですが、読者投稿欄でも女性のコメントを積極的に求めるなど、女性読者を増やし男性の意見に偏らないことを目指しているらしいです。

こういったプログラムの助けなしでも気をつけていた編集者はいるのかもしれませんが、実際の結果として女性の話をあまり取り上げていなかったとすれば、その不均衡を警告してくれるはいいことかもしれませんね。

履歴書の機械学習が女性差別になってしまい、Amazonが止めたというニュース

ロイターの記事 “Amazon scraps secret AI recruiting tool that showed bias against women

アマゾン社の中の人による匿名の情報ということだけれど、2014年に組まれたチームが、求職者からの履歴書を機械学習して(アマゾンレビューのように)星5つでランク付けをしたら、ソフトウェア開発者や他の技術者の高評価が男性に偏ってしまうことに気づいた、ということです。

学習に使った過去10年の求職者に占める男性の割合が多かったために、男性的な言葉を多く使った履歴書が優秀とされてしまったそうです。入力にバイアスが掛かってれば、結果にも掛かるのはある意味当たり前ですね。アマゾンに限らず、アメリカのIT企業で社員の男女比や有色人種比率が公表されたり比較されたりしている中で、これまでのやり方をベストとして強化すれば、属性にこだわらず優秀な人を取るということができなくなってしまいそうです。

記事によれば、結局、このチームは解散となったということ。今は別のチームで、重複したデータを削除するとか、多様性が保たれるようにスクリーニングするとか、よりマイルドな使い方を追及しているということです。

母の日のロンドンに現れた、#授乳の自由 (#FreeTheFeed)を応援する巨大な乳房

ロンドンを拠点とする広告会社マザーロンドンが、イギリスの母の日にロンドン市内で展開した啓蒙プロジェクト #FreeTheFeed

2017年にもなろうというのに、イギリスの母親たちが、哺乳瓶であろうと母乳であろうと、公共の場所で授乳しようとしたときにジロジロ見られたり非難されたりするのは信じられないことです。

It’s hard to believe that in 2017 UK mothers still feel watched and judged when feeding in public, by bottle or breast.

MotherLondon

公共の場所で胸を出して母乳を与えることを不快と思ったり、止めさせようとしたりするという事件が海外でも日本でも最近は定期的に起こっているようで、ネットでも度々論争が起こっています。

今回のプロジェクトは、罪悪感や恥ずかしさを感じることなく、母親がどこでどのような育児をするか自分で決める権利を応援するものだ、ということです。

(credit: MotherLondon)

道行く人たちに考えてもらうために、またこうやってネット等で広めてもらうために、あえて驚くようなキャンペーンにしているわけですが、街中でいきなりこれを見たら、インパクト大きいでしょうね。

via Creativity Online