2025/09/30

【読書メモ】 考える機械たち

考える機械たち インガ・ストルムケ 誠文堂新光社』
歴史、仕組み、倫理 ─ そして、AIは意思をもつのか?

本書は機械学習~ニューラルネットワーク~生成AIなどについての時事概説書ではあるが、それ以上にむしろ論考の書といえよう。
人間と機械≒コンピュータ、実体と表象信号、外部化と内製化、複合と効率、そして意識や価値の所在などなど…さまざま論考は多岐に亘り、しばしば超越的でもある。
あらかじめ総評すれば、これらさまざまな論考から演繹されうる未来志向のキーワードのひとつは(おそらく)’自律性’であろう。
機械≒コンピュータはどこまで自律的に学習し、どこまで自律的に思考しうるか、これらは人間側とどこまで同期を採りうるか、一方で我々人間自身の自律本能はコンピュータに移植複製しうるだろうか……?
ごく大雑把に要約してみるだけでも、これらの論考の抽象性(つまり難度)に圧倒されてしまうのではないか。

本書は総じて平易な文面が貫かれてはいるが、論題の抽象性が高いため、論旨の捕捉はけして易しくはない
また、図案や数式が希少に抑えられておればこそ、却って難解な箇所も散見される。
よって、一読にさいしてはICTまわりや機械学習について相応の見識が必須。

例えば第1章>では、チェスの必勝法を機械学習させるにあたっての「ミニマックス法」やここで起用される「探索木」につき基本コンセプトを挙げつつ、教わる側のコンピュータと教える側の人間が均一のゲームルールの理解≒汎化を為しうるか否かを論じている。

また<第2章>では、機械学習のモデル構造をニューラルネットワークとレイヤ(次元)とノードにて概説し、コンピュータ側での認識パラメータ調整数理として「確率的勾配降下法」や、その一環としての「誤差逆伝播法」などをさらり引用。
※ これら数理はさまざま類書にてふんだんに呈される通り汎用的なものだが、文面での論考ゆえにこそ、ちょっとした想像力は必須。

なお、<第3章>~<第4章>あたりはとくに論題と論考のダイナミズムが面白いので、以下に略記しておく。




<第3章>

或るニューラルネットワークにおいて、或る機械学習モデルが学習対象の全貌を捕捉しているのか、あるいは一部のみを捕捉しているに過ぎないのか?
ここのところ、この機械学習モデル自身は自律的に理解しているだろうか?

=====================

我々人間は、いかなる分野にても、無限にデータを収集することは出来ない。
それらデータの分布度合いに近似的にアプローチすることは出来るが、あくまでもヒストグラムとして暫定的に捉えているに過ぎず、真のデータ分布を知ることは出来ない。
機械学習モデルにおいても、暫定的理解と暫定記憶が為されているに過ぎない。

データ群において、期待される目標値からの特定方向への逸脱を’バイアス’と見做す。
一方で、期待される効用のバラつき度合を’分散’と称す。
データ群の活用において、’バイアス’と’分散’はどうしてもトレードオフの関係にあるので、ともに活かすことは出来ない。
機械学習モデルにおけるデータ群の学習にても、これらはやはりトレードオフの関係にある。

===========================

機械学習においては、人間側によって何らかの’ラベル’を付加したデータが有用とはなるが、これらラベル付けは精度に応じて準備が大変になる。
逆に、発生する可能性が低いと見なされる事象は、一般的にデータの精度が粗くなり、これらを機械学習モデルに入力させてゆけば、やはり軽視されてしまう。
これが「データのロングテール問題」。

=============================-

広く利用される「教師あり学習」にては、人間側があらかじめ判定を済ませている特定の正解データを入力している。
しかしこの学習モデルそのものが自律的に「汎用知性」を生じることはありえない。
一方で、「教師なし学習」においては、機械学習モデル自身が諸々データの正誤判定を為し、データポイントごとのクラスタを自律的に作成する。

===============================

「強化学習」は、何らかの信賞必罰型の「損失関数」アルゴリズムを、人間側であらかじめ設定し、これを機械学習モデルに埋め込んで自律的な学習と報酬を追求させる方式。
ロボットなどにて実装されている機械学習方式である。

機械学習モデルはこの何らかの「損失関数」を活用し続けうるが、全く新規のアルゴリズムまでも自律的に探索しうるとは限らない(むしろ新規アルゴリズムの探索は無くなってしまう?)。
これが「強化学習」に伴う「探索と活用のトレードオフ」。

======================================

<第4章>

画像に映っている「オブジェクト」の「実相」を、機械学習モデルに「理解」させるためには、その画像の各ピクセルから全貌までを区別させつつ捕捉させなければならない。
ここで、単純なパターンから全体パターンへ、例えばネオコグニトロン=アークテクチがュアが活かされている。

こういうアークテクチュアが、機械学習モデルにて、誤差逆伝播法によるパラメータ自在設定によって画像認識用ニューラルネットワークを成す。
このニューラルネットワークは、画像検索・探索の’フィルター’を自律的に生成し、特定の行列演算の「畳み込み層」を成す。

尤も、これらに畳み込み層に溜め込まれるデータ群は、いまや機械学習モデル独自のシンボリックな信号群に過ぎないので、人間側にとってはブラックボックスたりうる。

一方では、機械学習モデルはおのれ自身が’見て’いるオブジェクトの’物理次元’を自律的に峻別するには至っていない。

========================

ディープマインド社の機械学習モデル「アルファフィールド」は、或るアミノ酸配列から相応のタンパク質の最終形状を精密に予測するアルゴリズムを実装している。
既に解明済の15万7千種類のタンパク質それぞれの形状をあらかじめ学習しており、新たなアミノ酸配列からのタンパク質の予測精度は1オングストロームレベルである。
さらにこのアルファフィールドモデルはデータフローが’ラウンドアバウト’構造を成しており、これによって’短期記憶’機能も有している。

一方で、このアルファフィールドモデルが何をどう記憶し理解しているのか、我々人間には完全には捕捉しきれていない。

==========================

AIのシンボリックな’思考’プロセスは、人間側の意識/思考プロセスに似ている。
さらに、AIのサブシンボリックな’思考’は人間の直観に似ている。
だからこそ、人間が純粋な理知のみでAIの機械学習を説明しきるのは難しい。

機械学習モデル自身は’何を自律的に探索し認識しているのか’?
我々人間側によるこれらの検出や判別は、’一応は可能’である。
機械学習モデルによる自律的な’特定の概念生成’の量を、ニューラルネットワークのレイヤやノードごとに確認する、いわゆる「概念検出の技術」がある。

===================================


なお、<第5章>は、機械学習モデルと人間側がどこまで同期を採り得るかについての論考だ。
機械学習における「言語モデル」と(人間なりの)「自然言語」が本当に同期を採り得るか否かにつき論考を誘う。
言語モデルは数十億ものパラメータを調整して自然言語を習得したようにも見え、自律的に単語から文章を確率予測し生成し、さらに暗黙の文脈ルールを生成し暗号的に仕込むことも出来る ─ が、だからといって人間側の’意識’までも了察しているといえようか。

それから<第8章>では、機械学習モデルが自律的に構築しうる’倫理’が、人間側の’倫理’と同期を採り得るか、’価値’や’善悪感’はどうか、’損失関数’はどう見なされるのかと、巨視的な再考を促している。
あくまでもハードウェア(物質)としての可変性や拡張性を鑑みれば、コンピュータと人間頭脳はあまりにも異なっており、だから機械学習モデルと人間自身における倫理や価値意識の比較検証には意義が無いのだろうか、とも。

以上