科学とバイアスの悪循環で生まれる「無知」を解決する「ジェンダード・イノベーション」の可能性(yoi)

医療・科学・テクノロジーなどの現場で、性別の違いを考慮して研究や開発をデザインすることを指す「ジェンダード・イノベーション」という概念。社会に根付くジェンダーや人種へのバイアスを正し、より多くの人に科学や医療の恩恵を届けるにはどうしたらいいのか? 『ジェンダード・イノベーションの可能性』(明石書店)の共著者であり、分子細胞生物学が専門の佐々木成江さん、科学史が専門の鶴田想人さんにお話を伺いました。 身体のソボクなギモンに医師が回答(画像) 【ジェンダード・イノベーションとは?】 薬の効果や副作用が男女で違うことがあるように、身体には生物学的な性(セックス)の違いがあります。また、文化・社会的に構築された性(ジェンダー)によっても、置かれている環境に違いが生まれます。セックスとジェンダーの両方を考慮し、研究の内容や技術開発のあり方を見直していくものが、ジェンダードイノベーションの考え方です。

——前回では医学・医療分野のお話を伺いましたが、他の分野において性差分析の重要性が認識された例はありますか? 佐々木さん:最初に性差分析が進んだのは医学・生物分野でしたが、次に進んでいるのがAIの分野です。AIにさまざまなデータを機械学習させるときに、そのデータ自体にジェンダーバイアスが含まれていると、それを増幅させたり助長させたりするという問題があります。 例えば、iPhoneのSiriやGoogleアシスタントといったAIを活用した音声アシスタントは、発売当初には女性の声であることが多かったんですが、2019年のUNESCOの報告書で「女性は世話好きで、従属的な補助的存在である」というジェンダーバイアスを強めてしまうと指摘されました。そのため、現在では男性の声も選択できる機種が増え、声に性別のイメージがつかない、ジェンダーレスボイスの開発もされています。 また、翻訳ソフトのDeepLで「リケジョ」と入力してみてください。「woman who allegedly pursues a career at the expense of love, feminine interests, etc.(恋愛や女性的な興味などを犠牲にしてキャリアを追求するとされる女性)」と英訳されます。 大量のデータからパターンや特徴を自動的に学習するディープラーニングが、世間のジェンダーバイアスをそのまま反映してしまったんです。 かといって、このバイアスを弱めるためにアルゴリズムに人為的な補正を加えると、今度は「アメリカ建国の父」を黒人やアジア人として描くなど、歴史的に間違った画像を生成してしまいました。人為的にバイアスを埋めるのは、かなり難しいようです。

yoi
*******
****************************************************************************
*******
****************************************************************************

関連記事: