AIに「ありがとう」と言うだけで数千万円の損失が…!? OpenAI代表サム・アルトマンも危惧するChatGPTの“恐るべき電気代”の真相
〈日本は世界有数の「AI天国」だった? 厳しいと思いきや“原則自由”でのデータ学習が許されている“納得の理由”《それでも警戒すべきリスクとは》〉 から続く
https://bunshun.jp/articles/photo_front/84696?pn=2&utm_source=news.yahoo.co.jp&utm_medium=referral&utm_campaign=partnerLink;title:【写真】この記事の写真を見る(2枚);" index="53" xss=removed>【写真】この記事の写真を見る(2枚)
「AIに丁寧語を使う必要はない」――。そんな議論を耳にしたことはないだろうか。実はこれ、単なる時短テクニックの話ではない。OpenAIのCEOサム・アルトマンによれば、私たちがAIに「おねがい」や「ありがとう」と入力するだけで、膨大なコストが浪費されている可能性があるというのだ。 いまや生活に欠かせないAIだが、その裏側で消費されている莫大な資源。私たちにいったいなにができるのだろうか。ここでは、南山大学国際教養学部教授の神崎宣次氏が寄稿した『 AIの倫理 』(栗原聡・編著/角川新書)の一部を抜粋。AIと持続可能性の関係についての諸問題の真相に迫る。 ◆◆◆
日本の総電力消費を上回る? データセンターの“爆食”
大規模なAIモデルの訓練や、AI利用の増大は大量の電力を消費するようになっています。たとえば、OpenAIのサム・アルトマンがX(旧Twitter)上で、「OpenAIは人びとが彼らのAIモデルに『おねがい』や『ありがとう』と言うせいで、電力コストとしてどれくらいのお金を失っているのだろう」という投稿に対して、数千万ドルかもと返答したことが話題になりました。これはAI利用の増大の一端を示すやりとりといえるでしょう。 国際エネルギー機関の報告書『エネルギーとAI』によると、2024年のデータセンターによる電力消費量は415テラワット時で、これは世界全体の消費量の1・5%程度とされています。比較のための数字を挙げると、地球の総人口を支える食料生産のための化学肥料の大量生産方法であるハーバー・ボッシュ法で使われているのが数%と言われています。また、2030年までにはデータセンターの電力消費は倍増し、945テラワット時になると予測されています。これは現在の日本の総電力消費を上回ります。 もちろんAI業界も何も考えていないわけではありません。よりエネルギー効率的なAIの開発や再生可能エネルギーの利用といった取り組みがなされています。また前節でいくつか例を挙げましたが、AIによるエネルギー最適化への貢献には幅広い可能性があります。日本においても、電力インフラと情報通信インフラの効率化に向けたワット・ビット連携官民懇談会が設置されています。 問題はこれらの差し引きがどうなるかでしょう。しかし将来的な電力需要の推計には不確実性があります。AIの今後の発展や普及がどのように進むかについても、さまざまな見解が公表されてきていますが、これまでの10年で生じた変化の大きさを考えれば予測は難しいと考えざるをえません。
GPT-3の学習に「真水70万リットル」
AIによる環境負荷は電力消費だけではありません。二酸化炭素などの温室効果ガスの排出や、水や鉱物といった資源の消費といった問題もあります。
気候変動に歯止めがかからない現状において、脱炭素も持続可能性の達成にかかわる重要な目標の一つです。AIのカーボンフットプリントについてもさまざまな研究がありますが、よく言及されるのは大規模なモデルの訓練による排出量は自動車のライフタイム全体での排出量の5台分程度とするものです。これは少し前の研究ですので、現在のより大規模化したモデルではもっと増えているかもしれません。
しかし電力の場合と同様、AIが脱炭素に貢献する可能性も主張されています。先述の国際エネルギー機関の報告書でも、データセンターからの排出を上回る削減につながる可能性があるとしています。AIは脱炭素に貢献するというより強い立場をとっているAI開発者もいます。しかし、このような主張に対してはポジショントークにすぎない、楽観的すぎるといった批判があります。国際エネルギー機関の報告書は、AIによる削減量は気候変動に取り組むには全く足りない程度であるとも指摘しています。AIは脱炭素の道具になりうるが、それ単独で問題を解決してくれる銀の弾丸ではないとされていることには注意が必要です。
AIの稼動は発電やサーバの冷却のための水資源も必要とします。水は人間の生存に必須の資源であり、飲料水だけでなく、食料生産・エネルギー生産・工業生産などでも必要となります。既に水資源は希少となっているにもかかわらず、AIの持続可能性の研究ではウォーターフットプリントへの関心は高くないとされています。よく参照される数字は、GPT-3の訓練で70万リットルの真水が使われ、2027年には世界全体でAIのための取水量が42億から66億立法メートルにもなると予測される、というものです。
環境負荷の見積りの難しさは、全ての影響を計測・集計することの困難さにあります。それに加えて、資源間の相互関係もあります。一例として、水・エネルギー・食料ネクサスの考え方を説明します。ネクサスはここでは連環、つながりを意味します。環境分野では、これらの資源を一体として分析する研究が進められてきています。水は水力発電などでエネルギー生産に使われ、灌漑などで食料生産でも消費されます。エネルギーは、揚水などのために必要で、食料生産でも使われます。そして、食料の一部はバイオ燃料として利用されます。こうしたつながりまで考慮した分析が、個々の資源の分析よりも複雑になるのは明らかです。AIが資源のつながりにどのような影響を及ぼすのかについては、まだほとんど研究がないといっていいでしょう。
まず、CPUやGPUなどのハードウェアの製造には資源の採掘と消費が伴い、それによって土壌汚染・地下水汚染・水使用・放射性廃棄物・大気汚染などが生じます。輸送の段階では、化石燃料の消費や温室効果ガスの排出に加えて、大気汚染・油漏出・有害物質の排出・騒音公害などの問題があります。とはいえ、輸送全体の中でICT関連が占める割合、さらにはその中でAI関連が占める割合はわずかと考えられます。
エンドオブライフにおいては、電子廃棄物e-wasteのリサイクルと処分が問題になります。そうした問題の一つとして、発展途上国で処分が行われ、現地に大気汚染・酸性廃棄物・放射性廃棄物・地下水汚染などによる環境問題や社会問題を生じさせることが挙げられます。そして、AI関連機器においてもサーキュラーデザイン・長寿命・リサイクルなどの原則を取り入れる、さらなる取り組みがなされるべきであるとされています。
Eコマースのレコメンド機能も資源消費の一因に?
間接的かつネガティブな影響としては、AIの利用が環境に対するネガティブな影響を悪化させるような事例が挙げられています。例えば、Eコマースにおけるレコメンデーションは持続可能でない消費を拡大するかもしれません。企業がクラウド利用に移行することによって、自社のIT関連での温室効果ガス排出を報告義務のある対象ではなくし、任意報告の対象にしているという問題も報告されています。技術による効率性の改善がかえって資源消費などを加速させてしまう「リバウンド効果」も、AIの利用による間接的かつネガティブな影響の例といえるでしょう。
これらも含めたAIの環境影響評価が必要ですが、ライフサイクルやサプライチェーンの全体を視野に入れた評価は困難です。このOECDの報告書でも、AIの環境影響には測定の空白が五つ存在すると指摘されています。第一に、測定に関する標準が存在しないという問題があります。第二に、国家・企業・モデルそれぞれのレベルでの環境影響のデータ収集が不十分です。第三に、ICT全般の環境影響からAIだけの環境影響を区別して評価するのは難しい。実際さまざまな報告書を見ても、AIだけのデータはないという場合が多いのです。第四に、エネルギー消費と温室効果ガス排出だけでなく、それ以外の環境影響、たとえば生物多様性への影響や、水消費やレアアースの採掘による資源への影響なども考慮しなければなりません。最後に、環境に関する透明性と平等性の改善が必要とされています。
人びとの生活水準や格差や雇用などに今後どのような影響を与えていくか
資源採掘は環境だけでなく、人権の問題にも関連を持ちます。例として紛争鉱物について説明しましょう。紛争鉱物とは、コンゴ民主共和国とその隣接国で採掘され、武装集団による紛争や人権侵害の資金源となっている懸念のあるスズ、タンタル、タングステン、金の4種の鉱物を指します。アメリカでは2010年に制定されたドッド・フランク法に基づき、上場企業は紛争鉱物を使用しているかをサプライチェーン全体で調査し、報告することが義務付けられています。EUにおいても紛争鉱物資源に関する規則が採択され、2021年から適用されています。アマゾン、アップル、アルファベット(グーグル)、メタ、マイクロソフトなどのテック企業の紛争鉱物使用状況についてはFlorian Zandtが2024年にStatistaで発表した記事(Big Tech"s Reliance on Conflict Minerals)が参考になるでしょう。
紛争鉱物の例もそうですが、持続可能性は人びとの生活や社会にも関わります。このことは持続可能な開発目標(SDGs)の17の目標を見れば明らかでしょう。人びとの生活が持続可能でなければなりません。この意味でAIの普及が人びとの生活水準や格差や雇用などに今後どのような影響を与えていくかは、持続可能性に関連する重要な社会問題といえます。
たとえば、AIの普及により職を失う人が出るという技術的失業の可能性が論じられてきました。失業はしなくても、AI関連のスキルやタスクへの適応を迫られる職業は少なくないでしょう。たとえば教師などもそのように考えられています。またAIの学習が人手による作業に依存している場合があり、そうした作業が低賃金労働によって担われている問題も指摘されてきました。AIの研究・開発能力や、そこから得られる利益・恩恵が先進国(の更に一部の国)に偏っているという、国や地域間での格差の問題もあります。AIに関連する雇用格差の問題としてはジェンダーギャップの存在も指摘されてきました。2023年の世界経済フォーラムのジェンダーギャップ報告書によれば、AI関連で働いている女性の割合は約30%で、2016年との比較で約4%の増加に留まっています。
平和と持続可能性は表裏一体と考えられてきました。戦争は持続可能性のための長年の積み重ねを一瞬で破壊してしまいます。AI関連技術も軍事や安全保障と無関係ではありません。他方でAIは気候安全保障や食料安全保障に貢献することもできます。
国家安全保障とは別に、人間の安全保障も重要な課題となっています。よく知られているように、緒方貞子とアマルティア・センを共同議長とした人間の安全保障委員会は、報告書[人間の安全保障委員会03]において人間の安全保障を「人間の生にとってかけがえのない中枢部分を守り、すべての人の自由と可能性を実現すること」と定義しています。AIがこの実現に貢献するように研究開発を導くことは、人工知能学会のような専門家集団に期待される社会的責任(ノブレス・オブリージュ)に含まれるかもしれません。
ソフトな行動規範と行動変容を私たちは生み出すべき?
最後に、読者に考えてもらうための材料として、AIと持続可能性に関する倫理学的な論点をいくつか示したいと思います。考えてみてください。
まず先述のサム・アルトマンの話が本当であるなら、AIの無駄な利用はできるだけ差し控えるべきということになるでしょうか。たとえば自分の顔画像をアニメ風にしてと生成AIに頼んで喜んでいる場合ではないのかもしません。エアコンの適切な温度設定での利用が一種の行動コードとして社会で流通しているのと同じように、法による規制ほど厳格ではない、ソフトな行動規範と行動変容を私たちは生み出すべきでしょうか。
このような考え方に対しては、技術の発展によるAIの効率化を通じた解決が本筋だという反論が考えられます。このような立場を技術的解決主義と呼ぶことにしましょう。近年のAIの目をみはる発展を前提とすれば、十分に説得力のある立場です。しかし技術的解決主義に対しては、効率化は利用増をもたらし、かえって環境負荷の増大がもたらされるというリバウンド効果の懸念が指摘されるでしょう。多くの環境問題に共通することですが、個々人の行動によって生じる悪影響は無視できるほど小さく、また悪影響が即座に目に見えるかたちで生じるわけでないため、責任を認識しにくいという問題もあります。AIの利用によって得られる恩恵と、それがもたらす環境負荷とを切り離す(デカップリングする)方法を考える必要があります。
研究者や開発企業の側についても考えてみましょう。AI開発コミュニティが正確性を基準としてきたことがカーボンフットプリントなどの環境負荷の増大につながっているという指摘があります。しかし、個々の開発者が価値観を転換し、高性能を目指した開発競争から降りる動機づけを持つとは期待できないように思われます。自分がやめても、他が続けるだけだからです。だとすると、たとえば自動車業界全体に対して環境規制をかけるのと同じように、AI開発コミュニティ全体を対象とした規制が必要なのでしょうか。
最後に、気候変動は止められないのだから、そんなことは気にせずにAIの開発と利用から最大限の利益を得るべきだという、極端な主張もあります。残念ながら気候変動の問題の現状を考えると、このような主張も一定の説得力を持つかもしれません。これに対する反論は可能でしょうか。持続可能性のためのAI研究の意義を、私たちはもっと認識すべきかもしれません。
AIに「ありがとう」と言うだけで数千万円の損失が…!? OpenAI代表サム・アルトマンも危惧するChatGPTの“恐るべき電気代”の真相
〈日本は世界有数の「AI天国」だった? 厳しいと思いきや“原則自由”でのデータ学習が許されている“納得の理由”《それでも警戒すべきリスクとは》〉 から続く
「AIに丁寧語を使う必要はない」――。そんな議論を耳にしたことはないだろうか。実はこれ、単なる時短テクニックの話ではない。OpenAIのCEOサム・アルトマンによれば、私たちがAIに「おねがい」や「ありがとう」と入力するだけで、膨大なコストが浪費されている可能性があるというのだ。 いまや生活に欠かせないAIだが、その裏側で消費されている莫大な資源。私たちにいったいなにができるのだろうか。ここでは、南山大学国際教養学部教授の神崎宣次氏が寄稿した『 AIの倫理 』(栗原聡・編著/角川新書)の一部を抜粋。AIと持続可能性の関係についての諸問題の真相に迫る。 ◆◆◆
日本の総電力消費を上回る? データセンターの“爆食”
大規模なAIモデルの訓練や、AI利用の増大は大量の電力を消費するようになっています。たとえば、OpenAIのサム・アルトマンがX(旧Twitter)上で、「OpenAIは人びとが彼らのAIモデルに『おねがい』や『ありがとう』と言うせいで、電力コストとしてどれくらいのお金を失っているのだろう」という投稿に対して、数千万ドルかもと返答したことが話題になりました。これはAI利用の増大の一端を示すやりとりといえるでしょう。 国際エネルギー機関の報告書『エネルギーとAI』によると、2024年のデータセンターによる電力消費量は415テラワット時で、これは世界全体の消費量の1・5%程度とされています。比較のための数字を挙げると、地球の総人口を支える食料生産のための化学肥料の大量生産方法であるハーバー・ボッシュ法で使われているのが数%と言われています。また、2030年までにはデータセンターの電力消費は倍増し、945テラワット時になると予測されています。これは現在の日本の総電力消費を上回ります。 もちろんAI業界も何も考えていないわけではありません。よりエネルギー効率的なAIの開発や再生可能エネルギーの利用といった取り組みがなされています。また前節でいくつか例を挙げましたが、AIによるエネルギー最適化への貢献には幅広い可能性があります。日本においても、電力インフラと情報通信インフラの効率化に向けたワット・ビット連携官民懇談会が設置されています。 問題はこれらの差し引きがどうなるかでしょう。しかし将来的な電力需要の推計には不確実性があります。AIの今後の発展や普及がどのように進むかについても、さまざまな見解が公表されてきていますが、これまでの10年で生じた変化の大きさを考えれば予測は難しいと考えざるをえません。
GPT-3の学習に「真水70万リットル」
AIによる環境負荷は電力消費だけではありません。二酸化炭素などの温室効果ガスの排出や、水や鉱物といった資源の消費といった問題もあります。
気候変動に歯止めがかからない現状において、脱炭素も持続可能性の達成にかかわる重要な目標の一つです。AIのカーボンフットプリントについてもさまざまな研究がありますが、よく言及されるのは大規模なモデルの訓練による排出量は自動車のライフタイム全体での排出量の5台分程度とするものです。これは少し前の研究ですので、現在のより大規模化したモデルではもっと増えているかもしれません。
しかし電力の場合と同様、AIが脱炭素に貢献する可能性も主張されています。先述の国際エネルギー機関の報告書でも、データセンターからの排出を上回る削減につながる可能性があるとしています。AIは脱炭素に貢献するというより強い立場をとっているAI開発者もいます。しかし、このような主張に対してはポジショントークにすぎない、楽観的すぎるといった批判があります。国際エネルギー機関の報告書は、AIによる削減量は気候変動に取り組むには全く足りない程度であるとも指摘しています。AIは脱炭素の道具になりうるが、それ単独で問題を解決してくれる銀の弾丸ではないとされていることには注意が必要です。
AIの稼動は発電やサーバの冷却のための水資源も必要とします。水は人間の生存に必須の資源であり、飲料水だけでなく、食料生産・エネルギー生産・工業生産などでも必要となります。既に水資源は希少となっているにもかかわらず、AIの持続可能性の研究ではウォーターフットプリントへの関心は高くないとされています。よく参照される数字は、GPT-3の訓練で70万リットルの真水が使われ、2027年には世界全体でAIのための取水量が42億から66億立法メートルにもなると予測される、というものです。
環境負荷の見積りの難しさは、全ての影響を計測・集計することの困難さにあります。それに加えて、資源間の相互関係もあります。一例として、水・エネルギー・食料ネクサスの考え方を説明します。ネクサスはここでは連環、つながりを意味します。環境分野では、これらの資源を一体として分析する研究が進められてきています。水は水力発電などでエネルギー生産に使われ、灌漑などで食料生産でも消費されます。エネルギーは、揚水などのために必要で、食料生産でも使われます。そして、食料の一部はバイオ燃料として利用されます。こうしたつながりまで考慮した分析が、個々の資源の分析よりも複雑になるのは明らかです。AIが資源のつながりにどのような影響を及ぼすのかについては、まだほとんど研究がないといっていいでしょう。
まず、CPUやGPUなどのハードウェアの製造には資源の採掘と消費が伴い、それによって土壌汚染・地下水汚染・水使用・放射性廃棄物・大気汚染などが生じます。輸送の段階では、化石燃料の消費や温室効果ガスの排出に加えて、大気汚染・油漏出・有害物質の排出・騒音公害などの問題があります。とはいえ、輸送全体の中でICT関連が占める割合、さらにはその中でAI関連が占める割合はわずかと考えられます。
エンドオブライフにおいては、電子廃棄物e-wasteのリサイクルと処分が問題になります。そうした問題の一つとして、発展途上国で処分が行われ、現地に大気汚染・酸性廃棄物・放射性廃棄物・地下水汚染などによる環境問題や社会問題を生じさせることが挙げられます。そして、AI関連機器においてもサーキュラーデザイン・長寿命・リサイクルなどの原則を取り入れる、さらなる取り組みがなされるべきであるとされています。
Eコマースのレコメンド機能も資源消費の一因に?
間接的かつネガティブな影響としては、AIの利用が環境に対するネガティブな影響を悪化させるような事例が挙げられています。例えば、Eコマースにおけるレコメンデーションは持続可能でない消費を拡大するかもしれません。企業がクラウド利用に移行することによって、自社のIT関連での温室効果ガス排出を報告義務のある対象ではなくし、任意報告の対象にしているという問題も報告されています。技術による効率性の改善がかえって資源消費などを加速させてしまう「リバウンド効果」も、AIの利用による間接的かつネガティブな影響の例といえるでしょう。
これらも含めたAIの環境影響評価が必要ですが、ライフサイクルやサプライチェーンの全体を視野に入れた評価は困難です。このOECDの報告書でも、AIの環境影響には測定の空白が五つ存在すると指摘されています。第一に、測定に関する標準が存在しないという問題があります。第二に、国家・企業・モデルそれぞれのレベルでの環境影響のデータ収集が不十分です。第三に、ICT全般の環境影響からAIだけの環境影響を区別して評価するのは難しい。実際さまざまな報告書を見ても、AIだけのデータはないという場合が多いのです。第四に、エネルギー消費と温室効果ガス排出だけでなく、それ以外の環境影響、たとえば生物多様性への影響や、水消費やレアアースの採掘による資源への影響なども考慮しなければなりません。最後に、環境に関する透明性と平等性の改善が必要とされています。
人びとの生活水準や格差や雇用などに今後どのような影響を与えていくか
資源採掘は環境だけでなく、人権の問題にも関連を持ちます。例として紛争鉱物について説明しましょう。紛争鉱物とは、コンゴ民主共和国とその隣接国で採掘され、武装集団による紛争や人権侵害の資金源となっている懸念のあるスズ、タンタル、タングステン、金の4種の鉱物を指します。アメリカでは2010年に制定されたドッド・フランク法に基づき、上場企業は紛争鉱物を使用しているかをサプライチェーン全体で調査し、報告することが義務付けられています。EUにおいても紛争鉱物資源に関する規則が採択され、2021年から適用されています。アマゾン、アップル、アルファベット(グーグル)、メタ、マイクロソフトなどのテック企業の紛争鉱物使用状況についてはFlorian Zandtが2024年にStatistaで発表した記事(Big Tech"s Reliance on Conflict Minerals)が参考になるでしょう。
紛争鉱物の例もそうですが、持続可能性は人びとの生活や社会にも関わります。このことは持続可能な開発目標(SDGs)の17の目標を見れば明らかでしょう。人びとの生活が持続可能でなければなりません。この意味でAIの普及が人びとの生活水準や格差や雇用などに今後どのような影響を与えていくかは、持続可能性に関連する重要な社会問題といえます。
たとえば、AIの普及により職を失う人が出るという技術的失業の可能性が論じられてきました。失業はしなくても、AI関連のスキルやタスクへの適応を迫られる職業は少なくないでしょう。たとえば教師などもそのように考えられています。またAIの学習が人手による作業に依存している場合があり、そうした作業が低賃金労働によって担われている問題も指摘されてきました。AIの研究・開発能力や、そこから得られる利益・恩恵が先進国(の更に一部の国)に偏っているという、国や地域間での格差の問題もあります。AIに関連する雇用格差の問題としてはジェンダーギャップの存在も指摘されてきました。2023年の世界経済フォーラムのジェンダーギャップ報告書によれば、AI関連で働いている女性の割合は約30%で、2016年との比較で約4%の増加に留まっています。
平和と持続可能性は表裏一体と考えられてきました。戦争は持続可能性のための長年の積み重ねを一瞬で破壊してしまいます。AI関連技術も軍事や安全保障と無関係ではありません。他方でAIは気候安全保障や食料安全保障に貢献することもできます。
国家安全保障とは別に、人間の安全保障も重要な課題となっています。よく知られているように、緒方貞子とアマルティア・センを共同議長とした人間の安全保障委員会は、報告書[人間の安全保障委員会03]において人間の安全保障を「人間の生にとってかけがえのない中枢部分を守り、すべての人の自由と可能性を実現すること」と定義しています。AIがこの実現に貢献するように研究開発を導くことは、人工知能学会のような専門家集団に期待される社会的責任(ノブレス・オブリージュ)に含まれるかもしれません。
ソフトな行動規範と行動変容を私たちは生み出すべき?
最後に、読者に考えてもらうための材料として、AIと持続可能性に関する倫理学的な論点をいくつか示したいと思います。考えてみてください。
まず先述のサム・アルトマンの話が本当であるなら、AIの無駄な利用はできるだけ差し控えるべきということになるでしょうか。たとえば自分の顔画像をアニメ風にしてと生成AIに頼んで喜んでいる場合ではないのかもしません。エアコンの適切な温度設定での利用が一種の行動コードとして社会で流通しているのと同じように、法による規制ほど厳格ではない、ソフトな行動規範と行動変容を私たちは生み出すべきでしょうか。
このような考え方に対しては、技術の発展によるAIの効率化を通じた解決が本筋だという反論が考えられます。このような立場を技術的解決主義と呼ぶことにしましょう。近年のAIの目をみはる発展を前提とすれば、十分に説得力のある立場です。しかし技術的解決主義に対しては、効率化は利用増をもたらし、かえって環境負荷の増大がもたらされるというリバウンド効果の懸念が指摘されるでしょう。多くの環境問題に共通することですが、個々人の行動によって生じる悪影響は無視できるほど小さく、また悪影響が即座に目に見えるかたちで生じるわけでないため、責任を認識しにくいという問題もあります。AIの利用によって得られる恩恵と、それがもたらす環境負荷とを切り離す(デカップリングする)方法を考える必要があります。
研究者や開発企業の側についても考えてみましょう。AI開発コミュニティが正確性を基準としてきたことがカーボンフットプリントなどの環境負荷の増大につながっているという指摘があります。しかし、個々の開発者が価値観を転換し、高性能を目指した開発競争から降りる動機づけを持つとは期待できないように思われます。自分がやめても、他が続けるだけだからです。だとすると、たとえば自動車業界全体に対して環境規制をかけるのと同じように、AI開発コミュニティ全体を対象とした規制が必要なのでしょうか。
最後に、気候変動は止められないのだから、そんなことは気にせずにAIの開発と利用から最大限の利益を得るべきだという、極端な主張もあります。残念ながら気候変動の問題の現状を考えると、このような主張も一定の説得力を持つかもしれません。これに対する反論は可能でしょうか。持続可能性のためのAI研究の意義を、私たちはもっと認識すべきかもしれません。


