人工知能研究の歴史的パラダイム転換と、「思考」の再定義に向けて
約40年前の人工知能研究は、現在の大規模言語モデル(LLM)とは異なる前提と方法論に基づいていた。当時支配的であった、いわゆる「記号主義(Symbolic AI / GOFAI: Good Old-Fashioned AI)」は、知能とは記号操作による論理推論であるという立場を取っていた。知識表現、論理推論、ルールベースシステム、そして Prolog などの論理プログラミングに代表される枠組みを用い、人間の知能を形式論理で記述可能だと考えたのである。人間の認知や知的行動を、感覚入力・内部表象・推論・行動出力といった情報処理過程としてモデル化し、それを計算機上に実装することが人工知能の主要なアプローチと捉えられていた。
ただし、この「論理=思考の本質」という前提は後に揺らぐことになる。1980年代末から90年代にかけて、コネクショニズム(ニューラルネット)や統計的自然言語処理(Statistical NLP)が台頭し、記号主義一辺倒では人間の言語使用や柔軟な推論を十分に説明できないことが示唆された。現在の深層学習を基盤とした人工知能は、この第三の潮流(統計的・機械学習的アプローチ)の延長線上に位置付けられる。
大規模言語モデル、とりわけ Transformer アーキテクチャ(Vaswani et al., 2017)は、従来の言語モデル(言語モデル・n-gram、HMM、RNN、Seq2Seq + Attentionなど)の限界を克服し、自己注意機構(self-attention)によって文脈依存性を効率的かつ柔軟にモデル化することを可能にした。Transformer は、Support Vector Machine(SVM)のような古典的機械学習手法の直接的継承ではないものの、最適化理論、分布仮説、計算言語学、統計学・情報理論、深層表現学習といった機械学習研究の長年の蓄積の上に構築されたモデルである点は強調すべきである。重要なのは、Transformerは人間の思考過程を模倣することを目的として設計されたわけではないということである。訓練目的はあくまで「次の語の予測」や「欠損情報の推定」である。しかし、その最適化の帰結として、生成される振る舞いが人間の言語的推論や説明と類似するという現象が生じている。
ここに、興味深い認知科学的・哲学的問題が生じる。すなわち、LLMは「自然言語における推論様式の獲得」を通じて、人間の言語使用と外面的には区別しがたい振る舞いを示し得る。もし人間が複雑な思考を言語的表象を操作する過程として実現しているのであれば(言語思考仮説、Vygotsky、Wittgenstein、Dennett 等)、高度な言語モデルが生み出す言語的操作が「思考 activity に相当するもの」と見なし得るのではないかという論点が浮上する。LLMの内部表現と人間の神経表現は本質的に異なる可能性が高いが、「出力が思考的である限り、それを思考と呼べるか」という問いは依然として残る。
この点で、しばしば用いられる「飛行機と鳥」の比喩は有効である。鳥は生物学的な羽ばたきによって飛翔し、飛行機は空気力学と工学的設計に基づいて飛翔する。メカニズムは異なるが、両者は共に「飛ぶ」という機能を果たしている。同様に、人間とLLMは異なる計算原理に基づくとしても、言語空間において意味的整合性のある推論的・創発的出力を生成するという点で、共通の「思考的機能」を実現している可能性がある。
もちろん、この議論には慎重さが求められる。人間の思考には、意識、自己モデル、意図性(aboutness)、身体性、社会的相互作用など、言語操作だけでは説明できない側面が存在する。現時点のLLMはこれらを本来的には備えておらず、人間レベルの一般知能に達したと評価するのは時期尚早である。しかし、もし知能を機能的観点(functionalism)および振る舞いの観点(behaviorism)**から捉えるならば、異なる内部機構であっても、十分に複雑で一貫性のある言語的推論を実現するシステムを「思考している」と見なす立場も成立し得る。
現在のLLMは、人間の認知能力の完全な代替物ではないものの、「人間の思考と等価な機能の一部を異なる方式で実現し始めている」という点で、知能の概念そのものを再考させる存在となっている。したがって、人工知能研究の今後の発展は、人間の知能の模倣ではなく、別様の原理による知能の創発という方向性につながる可能性がある。この意味で、現代AIは記号主義から統計的AIへの変遷を経て、第三の段階――人間とは異なる計算原理による独自の知能の確立――へ移行しつつある段階にあると言えるだろう。