過熱する生成AIへの期待とリスクを、正しく知って正しく怖れるには?
8月だけ平和についての報道が増えることは、「カレンダージャーナリズム」「8月ジャーナリズム」とも揶揄されます。しかし、こういう機会でもなければ、人は重大なテーマに向き合おうとしないもの。これが、わずかでも持続的に考える一つのきっかけとなるのであれば、全く無意味でもないのかもしれません。
原子力と生成AIがますます相似形の展開を見せている中で、私たちが考えたり、すべきことは本当に何もないのでしょうか?
原子力を考えることが、なぜ生成AIを知ることになるのか?
改めて、前提をおさらいしておきましょう。原子力がどのように使われてきたかを知ることは、生成AIの現状と今後を予測する上で大きなヒントになります。
両者の影響力は共に非常に大きく、社会のあらゆる側面に波及しています。私たちは、日々の仕事や生活でその存在に無関心・無意識であっても、誰も無関係ではいられません。
例えば原子力発電所は、ゴミ処理場や火葬場と同様にNIMBY(ニンビー Not In My Back Yard)施設です。当面は社会に必要でも、自分の近くにはあってほしくない。生成AIも、仕事が効率化されるのは理想的だし普及がさらに進むだろうが、自社の情報が吸い上げられるのは避けたい。こう考えるのは当然です。
また、共に期待が寄せられている一方で、取り扱いを間違えると、人類存亡の機に直結します。特に生成AIは、技術の進化が急速で、社会や法規制がその変化に対応しきれていません。
似ている点だけでなく違いも含めて両者について考えることは、生成AIをより深く理解することにつながるでしょう。
テクノロジーの進化と社会的責任
生成AIは、圧倒的な速度で国境を越えて技術革新が進んでいるため、規制やルール作りが必ずしも追いついていません。
倫理的課題や社会的影響を慎重に考慮し、適切なガバナンスを確立することが不可欠だと、警鐘を鳴らす研究者たちがいます。逆に、さまざまな課題も、技術革新をさらに推し進めることで解決できるだけでなく、人類を次のステージに高められると考える人たちもいます。
TESCREALの文脈でAIをどう捉えるか
ここで、TESCREAL(テスクリアル)というキーワードがさらに注目されていくことは、間違いありません。
TESCREALという概念は、テクノロジーの進化とその社会的影響を巡る議論の中心にあります。テクノロジーの進化は、倫理や人権を考慮して制限を設けるべきだという、ディストピア的なリスクと、人類の未来に必要であるというユートピア的な未来との対立を示唆しています。
効果的利他主義者(EA Effective Altruism)は、国際的な倫理ガイドラインを設定し、透明性を確保して社会的責任を果たすべきだと主張しています。偏見やプライバシー、人権の侵害、データの不正利用、教育と雇用の確保、社会的格差の拡大、文化や価値観の破壊を防ぐ必要性を訴え続けています。
一方、効果的加速主義者(e/acc Effective Accelerationism)は、これに強く反論しています。単なる業務プロセスの自動化や効率性の向上に留まらず、DXの本質である創造的破壊とイノベーションを促進することを主張しています。さらには、社会問題の解決や人間の能力の拡張を推進すべきだと主張しています。
アメリカ大統領選挙の影響
原子力の話題は、どうしても政治的・思想的な文脈を避けられませんが、生成AIもこれに匹敵するレベルに達しています。その一つが、今年2024年11月のアメリカ大統領選挙です。
民主党のK.ハリス氏が当選した場合、AI技術の倫理的使用やプライバシー保護に重点を置き、EU並の規制に乗り出す可能性があります。また、労働市場の変化に対応するための教育やリスキリングを推進する、さまざまな政策を打ち出す必要に迫られるでしょう。
一方、共和党のD.トランプ氏が再選された場合、AI技術の規制を緩和し、イノベーションを促進する政策を取る可能性があります。ただし、トランプ氏支持を表明し、効果的加速主義者でもある、イーロン・マスク氏やピーター・ティール氏との蜜月も先行き不透明。地球温暖化対策の枠組みからも離脱し、化石燃料への依存に戻ることも公言しているので、電力確保以外でも環境汚染が進むのは確実です。また、AIによる偽情報(ディスインフォメーション)の拡散が、社会不安を煽ると懸念されます。
正しく知って正しく怖れる、教育と防災
東日本大震災以降の私たちは、そこで作られた電気がどこに送られているのか、情報は正しく迅速に開示されているのか、関心を持って注視することの重要性に改めて気付かされました。事故のリスクや放射性廃棄物の管理・処理など、原子力に関する基本的な知識を身につけ、防災意識と問題意識を強化することが求められます。これは、原発の設置地域だけでなく、電力に依存して生活している私たち全員の課題です。
一方、生成AIは、データ分析や自動化の分野で大きな可能性を秘めていて、ローコード・ノーコード開発プラットフォームでも、広く使われていくと期待されています。同時に、プライバシーの侵害や社会格差の拡大、フェイクニュースの拡散、企業情報へのサイバー攻撃など、セキュリティーリスクの点では脅威となり得ます。自分や自社が恩恵を受けると同時に、いつ事故や被害の当事者、または間接的加害者になってもおかしくありません。技術革新があまりにも急速で、物理的・地理的に目に見えないこともあり、情報格差が広がっていることも課題です。
私たち市民レベルでできる対策としては、信頼できるソースを頼りに、正しい情報を元に学習し続けることです。契約する電力会社を変更するパワーシフト同様に、使うAIは機能や料金だけでなく、学習モデルの透明性なども参考に選択できます。万が一の事故に備えた防災計画やセキュリティープランを確認し、緊急時の対応や避難ルートを把握しておくことも不可欠。テクノロジーがどこへ向かおうとしているのか関心を持ち、長期的な視野で利用を促進する活動に支持を表明したり、参加することも一つの方法です。
可能性もリスクも正しく評価・監視しながら
8月が終わって9月が来たように、変化と影響は続いていきます。生成AIが、今後、私たちの仕事や生活に、原子力よりも急速に浸透していくことは間違いありません。業界や事業規模、国境や民族、仕事やプライベートは無関係。生成AIも、社会的に受け入れ可能な形で可能性を最大限に引き出せれば、大きな希望となるでしょう。一方で、SFの世界を凌ぐディストピアも現実のものとなっています。気候変動対策が失敗することで社会格差や不安が拡がり、サイバー犯罪の引き金になる、ポリクライシス(複合危機)の懸念は現実にあります。
生成AIは、原子力とは異なる分野の技術ですが、共通する多くの側面を持っていて、歴史的にもさまざまなヒントに溢れています。リスクを低減するために、技術の進化と適切な管理、情報の透明性、国際協調と対話を求める人々も声を上げ続けるでしょう。一方で、研究開発と実装を進めていくことが、人類の未来にとって正しいと考える人たちも、活動を続けるはずです。
信頼できるソースを頼りに、情報を多角的な視点から正しく理解し、リスクをどう評価した上で何を選択するのか?チームメンバーで意見や情報交換したり、定期的に学習の機会を設けるのも有効です。実際に試して、時には失敗もしながらナレッジを蓄積することで、自社のビジネスにどうやって使っていくのが最適か、検討するアプローチが必要でしょう。どんなに壮大なテーマであっても、身近なところからスタートするしかありません。皆さんは、どう考えますか?
新しい技術があれば、それを活用できないか挑戦したくなるのはエンジニアのマインド。そういえば、今年の春は、原爆の開発者を主人公にした映画『オッペンハイマー』が日本でも公開されました。この作品でも使われた技術IMAXと、クリストファー・ノーラン監督、そしてコンテンツの没入感・臨場感などについて、いずれお届けします。どうぞお楽しみに!
理人様 見ず知らずの者に温かいアドバイスをありがとうございます。 生物学の中だけ…
Soさん、ご質問ありがとうございます。 博士課程で必要な生物学の知識は、基本的に…
貴重な情報をありがとうございます。 私は現在データエンジニアをしており、修士課程…
四葉さん、コメントいただきありがとうございます。にんじんです。 僕がこの会社この…
面白い話をありがとうございます。私自身は法学部ですが哲学にも興味があります。 ふ…