第4話 猫と正義

文字数 3,202文字

(Q:猫と正義の共通点を説明してください)

1)猫とは何か

中世西欧のスコラ哲学において、「猫」「正義」などは、類の概念として実在するのかどうかという議論(普遍論争)があり、実在論は、名前(類の概念)は実在を意味すると言い、唯名論は、類の概念は実在しないと言いました。

ここでは、猫の画像認識を考えます。

画像認識の方法は以下です。


(A1)学習データを準備する。
学習データは、画像に(猫、NOT猫)のいずれかのラベルをつけたものです。

猫グループの画像と、NOT猫グループの画像を準備したと言い換えることもできます。
こうした画像を少なくとも、100万枚準備します。

(A2)検証データを準備する。
検証データは、画像に(猫、NOT猫)のいずれかのラベルをつけたものです。

(A3)ディープラーニングのモデルを作成する。

(A4)モデルに、学習データをつかって、学習させる。
学習するとモデルの内部パラメータの値が変化します。

(A5)学習済みのモデルを使って、検証データで、モデルの画像識別能力をテストする。

(A6)テストの成績が、要求水準を満たしていれば、完了する。成績が悪い場合は、モデルを作りなおして、再度(A4)を行う。

猫の画像認識モデルは、モデル構造と内部パラメータ(モデルセット)からできています。

猫の画像とは、このモデルセットのフィルタ―が、猫であると判定した画像のことです。

普遍論争では、類の概念は、「猫」という言葉でした。

画像認識の類の概念は、猫のモデルセットです。

ビッグテックは、毎年モデルを改良して、画像の識別率をあげています。

例えば、マイクロソフトが、2022年につくった猫のモデルセットを、「猫(マイクロソフト、2022)」と書くことにします。この表記を使うと、マイクロソフトが、2021年につくったモデルセットは「猫(マイクロソフト、2021)」と、Googleが2021年につくった猫のモデルセットは、「猫(Google、2021)」と書くことができます。

AIが、猫の画像を学習する過程は人間の学習過程モデルにしています。

幼いA君とB君が猫画像を学習して習得したモデルにも同様の表現を考えることができます。「猫(A君、2021)」、「猫(B君、2021)」といった具合です。このモデルがどの程度一致するかを人間を対象にして調べることはできませんが、AIのモデルセットであれば、中身を比較できます。

また、理論的には、説明できていませんが、猫の画像識別を学習したモデルに、ライオンの画像識別を学習させると、猫の学習がない場合より、速やかに学習できるようです。


「猫」類の概念は、情報縮約のフィルタ―と考えることもできます。

猫の識別率が100%のフィルタ―をつくることはできません。猫でないものも猫と判別してしまう緩いフィルターか、一部の猫を見落とすが、猫と識別した画像には、猫以外が含まれていない硬いフィルタ―のいずれかになり易いと思われます。

いずれにしても、普遍論争には、猫は確実に識別できるというバイナリーバイアスがあります。

2)正義とは何か

チャットGPTのようなAIは、しばしば問題発言を繰り返しています。

これを避けるために、マイクロソフト「Bing」のチャットAIの利用回数に制限をかけています。

つまり、猫の画像とは異なり、AIは「正義」の学習に失敗しています。

「猫」の類の概念は、AIソフト毎に異なりますし、人間の学習も、同じプロセスを経ているのであれば、各人ごとに「猫」の類の概念が異なるはずです。

猫の場合には、「猫」と「NOT猫」の画像を準備して、AIに学習させました。

同様に考えれば、「正義」と「NOT正義」の学習用のデータセットが準備できれば、AIは、正義を判別できそうです。

しかし、そのようなデータセットをつくることは可能でしょうか。

画像の代りに、「主語Aが述部Bをする」といった文章を作成して、猫と同じように、「正義」か、「NOT正義」のタグをつければ、学習データができるかもしれません。

現在のチャットGPTでは、問題のあるキーワードリストをつくり、そのリストでフィルタ―をかけるという別の方法がとられています。

3)チョムスキーのモデル

「猫」は目に見えるので、画像データがあります。

「正義」は目に見えません。

人間には、目に見えない(あるは、五感で把握できない)ものを学習することが可能でしょうか。

そのプロセスがわかれば、AIに「正義」を学習させることが出来そうです。

「猫」の学習をするときには、多段のニューラルネットがモデル構造です。
ネットワークのノードの重みが、学習の成果です。

「多段のニューラルネットがモデル構造」自体は、アプリオリで、学習するものではありません。人間で言えば、遺伝子に組み込まれているような感じです。

画像認識の場合には、段数を増やすと、識別率が高くなることが知られています。

人間の遺伝子には、どのような学習システムが書き込まれているのでしょうか。

「正義」の学習で使うモデル構造は、「猫」の学習の「多段のニューラルネットがモデル構造」ではないのかも知れません。

チョムスキーは、各国言語に共通の言語能力を人間は持っていると主張しています。

これは、余りにも大胆な仮説ですが、反証がないため、今まで生き残っています。

最近は、「各国言語に共通の言語能力」に対応した遺伝子が見つかったと主張する研究者もいます。

ダーウィンが進化論を提案した時には、遺伝子は見つかっていませんでした。

チョムスキーのモデルも、遺伝子が特定されれば、広まると思われます。

統計的因果モデルから、ヒントをもらえば、「正義」の学習が、「猫」の学習と異なる点には、介入が関与している可能性も考えられます。

「猫」は、見ても飛び掛かってきませんが、「違法」行為をすれば、それを中断するような介入を受けます。学習過程に介入が入らないと「正義」を学習することは難しいのかも知れません。

AIのポッドは、比較的簡単に、「正義」に反する発言をします。

現在は、そこで、クレームがついて止まってしまっています。

しかし、子供が、「正義」を学ぶ過程をみれば、自分が「不正」すれば、罰せられます。周囲の友だちが不正をすれば、罰せられます。こうしたプロセスを経ないで、「正義」を学習することは困難に思われます。

つまり、AIのポッドが、「正義」に反する発言をした場合は、学習のチャンスと思われます。

幼児は、転んで痛い思いをしながら、安全に体を動かす方法を学習します。

このときに、親が、過保護で、痛い思いをする前に介入して活動を停止させると、痛いという学習がなされないので、そのうちに大きなけがをしてしまいます。

4)A:猫と正義の共通点

共通点は、どちらも学習によって得られる類の概念だということです。

学習のプロセスは違いますが、詳しいことはわかっていません。

日本は法治国家ですから、「正義」の類の概念が人によって大きく異なると困りますが、どこまで、一致させられるかは不明です。

ITでは、「猫」のような類の概念は、オブジェクトです。個体の猫はインスタンスです。

チャールズ・サンダース・パース(Charles Sanders Pierce)は、オブジェクトをタイプ、インスタンスをトークンとも呼んでいます。

ソシュールは、言語分野に限定されますが、オブジェクトをラング、インスタンスをパロールと区別しています。

オブジェクト指向には、パースの影響があると思われますが、言及している入門書を見たことがありません。

今回は、各段の結論を出すつもりがありません。

データサイエンスは、機械学習モデルによって、普遍論争のような今までのバイナリーバイアスにまみれた認知モデルを破壊しています。

残念ながら、この点について書かれた考察は、極めて少ないです。
ワンクリックで応援できます。
(ログインが必要です)

登場人物紹介

登場人物はありません

ビューワー設定

文字サイズ
  • 特大
背景色
  • 生成り
  • 水色
フォント
  • 明朝
  • ゴシック
組み方向
  • 横組み
  • 縦組み