Magazine(マガジン)

コラム

AIの恐ろしさを考えてみる

2023.08.10

パラメトリック・ボイス                   GEL 石津優子

AIを皆さんはどう捉えていますかAIが人類を滅亡させるAIが仕事を奪う等といったセン
セーショナルなタイトルが並び、プロンプトエンジニアという新しい領域のようなものも出
現しています。私たちの仕事がどう変わるのか、生活がどう変わるのか、不安や焦燥感を抱
える人たちが多いのかもしれません。私も例外なく、その1人でもあります。ChatGPTを
使ってますという記事を前回書いたので、AIについて議論をする機会が増えました。その中
で、それぞれの人が捉えているAIというものに違いが大きいと感じ、簡単にAIについてまと
める記事を書いてみて、その上でAIの恐ろしさについて考えてみようと思います。
 
まず、簡単なAIの歴史からまとめます。AIの専門家ではないので間違いがあるかもしれない
ことをご了承ください。

AI自体は言語系のChatGPTやMidjourneyといった生成系AIの登場により、生活の身近に
なったことより新しい印象がありますが、1950代からある言葉です。ある意味でAIという
用語は1956年のダトマス会議に由来すると言われていますこの会議でAIというフレー
ズが初めて使われ、AIとは「人間の知的な行動を自動化するコンピュータープログラムの設
計と作成」を指すと定義されました。現在、ディープラーニングの登場で、第3次AIブーム
だと言われ、サービスとして誰でもAIが使えるようになったことで注目されています。深層
学習=AIという意味合いで語られることが多いですが、広義の意味でのAIとは、「決められ
たルールによって、インプットからアウトプットを出すもの」だそうです。つまり、BIMソ
フトもGHやDynamoで形成されたツールも広義の意味ではAIと呼べます。身近な例で言う
と電卓といった計算機、食洗機、洗濯機もAIと言えます。現在AIと呼ばれるものは、人間の
介入なしにデータから「ルール」を学習し、それに基づいて新しい入力に対してアウトプッ
トを生成します。したがって、それはただ単純なルールベースのシステムよりもはるかに複
雑です。

AIの歴史は数学、コンピュータ科学、認知科学、哲学といった多くの分野と結びつきながら
発展した歴史です。数学の30万年以上前から数という概念が生まれていると言われていま
す。簡単な四則演算から、数学の発展によってより複雑な計算をすることができるようにな
りました。計算をするということは、「未来を予測するための手段」です。周りの具体的な
現象の中に規則性を探し、抽象的に認知することだと言えます。

初期のAIというのは、インプットに対してルールに基づいて結果を出すという単純なもので
した。家庭教師がついて学習するようなものに近く、ルール自体を人が教える必要があり、
教える人間自体の体力や時間の限界があることやそもそもルールを見つけることが難しいと
いう課題が見えてきました。そこで考えたのが、ルール自体を機械に決めてもらうという考
えです。機械学習は、そのルール自体を機械が作ります。実際には「ルール」を決めるので
はなく、与えられたデータからパターンを学習します。この「学習」は、一般的には最適化
問題を解くことによって行われます。身近なものだと、過去の天気予報のデータから明日の
天気を予測したり、過去の売上のデータから明日の売上を予測するといったものです。予測
できるルール、つまり過去のデータからルールを導き出しモデルを作ってくれるのが機械学
習のイメージです。インプットするデータの意味づけをしていく必要があります。

学習つまり機械がルールを導き出す上で必要なのがタの意味づけである特徴量です。
例えば、新しいジュースの売上予測といったモデルを作りたいのであれば、その日の売上を
予測するために天気、気温、湿度、周辺イベント、曜日と売上のデータを学習させて、成功
すれば、天気、気温、湿度、周辺イベント、曜日をインプットすると、売上予測ができるよ
うになります。

さらに特徴量計算ができるのがディープラーニングです。ディープラーニングは特に「特徴
学習」または「表現学習」の能力で優れています。これは、データから自動的に有用な特
徴(表現)を学習することができるということです。画像認識の分野でよく聞くと思います
が、特徴量の自動化ができるものだと思うとわかりやすいです。ある商品を売るためのディ
スプレイのレイアウトを学習させるために、レイアウトの位置情報を人間が入力する必要な
く、画像からレイアウトという特徴量を自動で作るというような形です。

ChatGPTは、そのディープラーニングを活用したプロダクトです。大量のテキストデータか
ら自然言語のパターンを学習するために、Transformerと呼ばれる深層ニューラルネット
ワークアーキテクチャを採用しています。このアーキテクチャは、テキスト中の長距離の依
存関係を捉える能力を持つため、文脈に基づいた応答生成に特に適しています。
Transformerという技術自体の説明よりも共有したい考えとしては、どんなに複雑なもので
も、機械が「インプットから決められたルールでアウトプットを出す」に変わりはありませ
ん。学習されたデータをサービスとして誰でも使える形にしたのがChatGPTです。

ここまで読むとよく聞く「AIが嘘をつく」ということが何を意味するかがイメージがつきや
すくなると思います。そもそも、データから学習をしているので、学習データにかなり依存
します。また学習で導き出したルールが求めていたルールになるかどうかは、学習させたモ
デルのアウトプットを確認するまでわかりません。

できるだけ正しい結果が出るようにプロンプトを打つという行為も学習したモデル内の話な
ので、サービスを提供する側がモデルをアップデートしたら当然ながらアウトプットが変わ
り、Google検索でどのようなキーワードを打つかということと似たようなスキルになりま
す。これから必要な能力には、変わりはないと思いますが、使っていけば感覚的に分かって
くるようなものでもあり、個人的にはChatGPTにプロンプトを打つ前にどうプロンプトを打
つかをあまり考えなくても良い気がしています。期待した結果が出ないときにはじめてプロ
ンプトを打つ内容を見直せば良いのです。

学習とは、何を示すのかをAIの歴史を大まかに振り返ることで概念的に理解した上で、AIの
恐ろしさ、つまり利用の方法の心構えをまとめておきます。大きくは、3つです。
 
1、学習によるバイアスや偏見、差別
2、個人情報、機密情報の漏洩
3、正確性

インターネットの登場を経験した世代からすると見たことある内容な気がすると思います。
今までインターネットやネットサービスを利用していた時の注意事項をより強く意識して自
分の判断力を培いましょうという話になります。

優秀な検索ツール、過去のデータから結果を得られる計算機という意味合いが強く、生活に
浸透することは間違い無いでしょう。画像も、文字も、プログラムも、最近ではパワポも出
すことができ、データをコンピュータ自身が学習することの威力を感じます。

しかしながら、正確性という意味ではデータの質が学習結果に大きな影響を与えることは、
特定の専門領域について質問したときに明らかになります。例えば、画像生成においても、
学習データが偏っている場合、その偏りが結果に反映され、生成しやすい画像とそうでない
画像が出てきます。RhinoやRevitのAPIに関する質問とUnityやWe開発環境に対する質問の
正確性の違いも実感しています。

個人情報、機密情報の漏洩に関しては、プロダクトの規約を消費者が確認してから使う必要
性があります。赤ちゃん用のおもちゃを購入したとき、最初はその安全性を信じているもの
の、実際にはネジが取れて飲み込むリスクが存在し、問題が明らかになってから販売が停止
される、といった例と同様、我々消費者としては、どのように製品が作られているのかを把
握し、その品質を評価する力が求められます。

また、AIから得られた結果を鵜呑みにし、それに基づいて未来を予測することは危険性を伴
います。なぜなら、データには必ず、それを作成した人やそのデータが反映する時代背景の
価値観や倫理観が含まれているからです。AIやその他の機械学習モデルは、訓練データに基
づいて学習します。したがって、そのデータが偏っているか、あるいは特定の視点や価値観
を反映している場合、AIの出力もそれらのバイアスを引き継ぐ可能性があります。

例えば、過去の判例データに基づいて訓練された法律のAIは、過去の法律制度の不公正や偏
見を引き継いでしまうかもしれません。これはデータの選択とAIの設計における重要な課題
であり、これらのモデルを使う際には注意が必要です。

同時に、未来を予測する際には、過去のデータだけに頼ることの危険性も認識する必要があ
ります。世界は常に変化しており、過去のパターンが必ずしも未来を正確に予測するわけで
はありません。このため、AIの出力を鵜呑みにすることなく、批判的な視点を持つことが重
要です。

AIと機械学習の力を活用しつつ、その限界と偏見の可能性を理解することは、私たちがより
良い未来を創り上げるための重要なステップとなります。

もっと広い視野で未来を考える場合、人類の存続に対する大きな不安に直面することがあり
ます。歴史を通じて、私たちは技術という大きな力をどのように活用するかという問いに直
面してきました。それは、人々の生活を豊かにするための道具として、または人々を苦しめ
る手段として利用されることもありました。道具を作り出すものもそれを使用するものも、
どちらも人間です。そして、この事実が技術の使用に関する最大のリスクを生み出している
のです。

AIが人類を滅亡させるという人たちがいる理由を考えてみました。私たちが普段触れている
文明は、数学からはじまり、技術を使うことを正しいと信仰している社会から成り立ってい
ます。人類を滅亡させるという話を聞いて、まず思うのは彼らのいう人類とは誰のことを示
すのかということです。AIの技術を享受できる社会に属する人だけのことを指しているので
しょう。技術から距離をとって暮らしている部族や集団も存在しており、原始的な生活を保
ち、技術という不自然なものを嫌い、自然でいることを選ぶ人たちも存在しています。長い
歴史の中で、技術発展とともに未開の人たちと呼ばれる集団を弾圧してきたのは私たち技術
を持った人間であり、そうではない人たちを同じ人間だと扱わず、搾取した歴史は簡単に見
つけることができます。そうした技術を持つ人たちが犯した残酷な歴史が、AIという技術に
恐ろしさを感じてしまう1つの理由なのかもしれません。

業務改善に技術を利用すると時として人々の職を奪うこともありますしかし、私たちは、
人間が過去のデータや未来予測だけに依存することなく、現在から未来に向けて創造的な作
業を行う能力を持つと信じています。また、人間は相互の交流を通じて集団学習を行い、自
己のバイアスや偏見を見直すことができます。そして、私たちは、データを超越した価値観
を形成できるという強い信念から、技術の使用を選択します。

ある視点から見れば、私たちが仕事を通じて社会に貢献したい、技術を活用して人権を確立
したい、そして「強者が勝つ」という自然の摂理に対し、技術を介して善意の矛盾を持ち込
む、という願いを持っているかもしれません。毎日働くことは、まるで選択的な祈りのよう
に感じます。これは神への直接的な信仰を意味する祈りではなく、私たち人間が生きていく
限り文明を発展させていくという、人間という存在が他の動物種とは異なりたいという願望
なのかもしれません。

私自身も、AIや数学について再度学び直すことを決心しました。皆さんも是非とも、建築に
必要な「過去のデータから未来を予測するための道具」をどのように作るべきか、という問
いについて一緒に考えていきましょう。そのために、まずはパラメトリックデザインから始
め、次に機械学習へとステップバイステップで進めていき、どの道具を使用するか選択する
ことをお勧めします。レジでお釣りを計算する際に電卓を使わないのと同じように、建設業
界でも、適材適所でAIを活用しましょう。

石津 優子 氏

GEL 代表取締役