AIに人間の仕事は奪われるのか? デジタル倫理の第一人者が語るAIとの付き合い方
2025.3.30
2025.3.30

そして、ここでガバナンス、規制、そして皆さんの職業の話をしよう。
デジタル倫理とは、テクノロジーに関連する変化と、それが現実に対する理解、社会の価値観や権利に与える影響を概念的に分析する学問だ。その目的は、機会とリスクを評価し、正当な利益と相反する利益の間にある厄介なもので構成されるこの領域をナビゲートすることだ。その難しさのひとつは、テクノロジーの提供者と市民の異なる利害のバランスを取ることである。私の仕事は、デジタル変革に伴う変化を理解し、その力学を把握し、私たちの(民主的で自由主義的な)社会を支える価値観や権利に沿った解決策を見つけることだ。そして、法を定めるのは規制当局の役割である。
したがって、AIの倫理とは、保護すべき安全策と放棄すべきプライバシーのバランスの問題である。もっとわかりやすく説明してみよう。
例えば、コロナ禍の際、私たちは皆、健康というより大きな保護と引き換えに、プライバシーが多少損なわれることを受け入れた。そして最終的には、バランスを取り直した。別の問題についても考えてみよう。たとえばアルツハイマー病の研究という課題について、世紀の病の治療法の研究のために、私たちはどれほどのデータを放棄するつもりがあるだろうか。20年後の子どもたちに「プライバシーを守ることを優先したために調査や研究をしなかった」と伝える覚悟があるだろうか? リスクと機会のバランスを取るには、正しい方向性を示す倫理的な判断が必要だ。
そして、規制についてはどのような進展があったか?
ヨーロッパでは、2024年8月に施行されたAI法により、かなり進んでいる。4段階のリスク評価尺度(容認できない、つまり禁止レベルでは、認知行動操作システム、インターネットやCCTV映像からの顔画像の無差別収集、政治、宗教、哲学上の信念、性的指向など、機密データから割り出す生体カテゴライゼーションシステムなど)を使用して、アプリを規制している。バイデン政権時代の米国は同様の規制に向かって動いていたが、トランプ大統領とイーロン・マスクの登場により、今、私たちは懸念すべき流れに直面しているのではないかと危惧している。
AIの偽りの創造性について話を戻そう。仕事の世界はどのように変化するだろうか?
私たちが仕事を失うことはないと思うが、働き方は確実に変化するだろう。私たちはすぐに、人間と人工エージェントで構成されるハイブリッドチームに身を置くことになるだろう。各タスクをどちらに委任するかを決定しなければならない。何よりも、人間エージェントが人工エージェントを批判的に利用できるよう、訓練する必要がある。また、企業や組織内に、人間の自主性を明確にし、できれば保護するための内部統制措置も必要となるだろう。おそらくは経験や直感に基づいて、AIが提案するものとは異なる意思決定を行う余地を、人間に残しておく必要がある。どちらかと言えば、リスクは別物だ。タスクを委任することによって、それを遂行する能力、すなわちスキルを失うリスクがある。スキルがなければ、AIが機能しない場合に介入したり、AIがミスを犯したときにそれを理解したりすることができなくなる。
日常生活において、私たちが直面する可能性のある主なリスクとは何だろうか。もっと言えば、危険はあるのだろうか。
もちろん、すでに日常生活において顕在化している。性別、性的指向、出身地などに基づいて差別するAIシステムは、ニュースで広く報道されている。たとえば、約4億人の病気を抱える人がおり、行政による医療保険の適用範囲を確認する必要があるため、医療へのアクセスが複雑なプロセスとなっている米国では、救急外来のトリアージ管理(緊急度や重症度に応じて治療の優先順位を決めること)にAIシステムが使用された。確かに大いに役立つが、2019年に英誌『Nature』で発表された研究で、このシステムが、簡単に言えば、少数民族を差別していることが実証された。入院や救急外来への来院歴が少ないため、リスクの低い患者とみなされたのだ。しかし、これは健康な患者にも、保険に加入しておらず、治療が必要でも治療費を払えない患者にも起こることだ。別の例としては、採用担当者が使用するAIシステムが、そのポジションは男性が就くことが多いという過去のデータから学習しているため、女性に対して差別的になることが多いということが挙げられる。これは、Amazonがテストした後、廃止したシステムでも見られた事例だ。
では、男性によって作られた世界におけるAIは男性優位主義なのだろうか?
ある意味では、そうだ。なぜなら、男性優位主義社会を反映したこれまでのデータから学習しているからである。このデータでは女性は少数派であるため、AIによって苦しめられている。つまり、意図的に人種差別的であったり、女性嫌悪的であったりするわけではなく、私たちが生きている世界の性差別を永続させているのだ。デザインも依然として男性優位の世界だが、幸いにも状況は変わりつつある。科学、技術、工学、数学の分野を専攻する女性がますます増えているからだ。オーストラリアのケイト・クロフォードやポルトガルのヴァージニア・ディグナムなど、素晴らしいAI専門家もすでにいる。
しかし、AIは気候変動などの今日の主要な課題の解決に役立つのだろうか?
気候問題に対しては相反する影響を及ぼす。この技術を訓練するデータを維持するために必要なスーパーコンピューター(ヨーロッパには8台あり、イタリアにもレオナルドという1台がボローニャにある)は、機能するために大量の電気(および水)を消費する。2023年の調査では、データセンターが数多くあるアイルランドにおいて、これらのサーバーファームの維持に消費されるエネルギーは、国内で使用される全エネルギーの21%に相当することが示された。しかし同時に、AIを活用して家庭での電力消費を最適化したり、気候変動のメカニズムをより深く理解し、それらを是正するための対策を講じたりすることも可能だ。たとえば、AIは都市の交通や道路のパターンをより理解するのに役立ち、環境への影響を抑えるための適切なガバナンスの決定を可能にする。
そして、AIの持続可能性という大きな問題については、どのような対策が取られているのだろうか?
前出のレオナルドは1時間あたり最大10メガワットを吸収することができる。(Bologna Missione Climaによると、一般家庭約600世帯分に相当する)。 そのため、ウェブ大手企業は、増大するエネルギー需要に対応するために、最新世代の超小型原子力発電所である小型モジュール炉の開発により、新たなエネルギー源を模索している。
最後に何か良いニュースはないだろうか?
AIの潜在能力は計り知れない。うまく設計、開発、利用できれば、プロセスをより効率的にし、意思決定をより効果的にし、世界に対する理解をより深めることができるテクノロジーだ。社会をより深く理解できれば、環境や人権、社会や政治の力学を守るためにできることも増えるだろう。主な問題は、このテクノロジーを制御しながら活用できるかどうかだ。つまり、いつどこで使用するかを決め、リスクを認識し、管理し、神秘化しないということである。 なぜなら、AIは決して間違いを犯さないと思うことが、私たちが犯す最大の過ちだからだ。
元記事トップの写真:透明なヘルメットをかぶった男性は、1956〜57年に猛威を振るったインフルエンザ流行から弱者を守るために、NASAのプロトタイプに基づいて米国政府が開発した「ベルギー・ヘルメット」を彷彿(ほうふつ)とさせる。本物のように見えるが、この画像は、現実と虚構の境界を曖昧にすることを意図した写真家フィリップ・トレダノがAIで作成したものである。この写真は、彼の著書『Another America』(L’Artiere社, 2024)で紹介されているプロジェクトの一部であり、50年代のアメリカを背景に、AIに何ができるかの最も興味深い例の一つを示している。
※( )内編集部注
translation & adaptation: Akiko Eguchi
人工知能を規制する世界初の法律「AI法」がEUに誕生
TikTokはファッション界に必要か?
This article was originally published by Valeria Balocco on Marie Claire Italia
リンクを
コピーしました