直接にはあったこともないし、経歴を資料で知るだけの大天才について、Springerからの著書で触れた。それに関連して調べたこと思ったことをFBにポストしたりした。以下はそれらから。
2023.3.10記載:John von Neumannが何を考えていたかだ。1950年にはすでに、今のデジタルコンピュータとニューラルネットベースのコンピュータの共存を描いていたように見える。しかし彼は1957年2月8日に亡くなった。彼のJONIACは1語40ビットに2命令、オペランドは12ビットでダイレクトアドレシング。opcodeは8 bit。どのくらいの広さがこの先のコンピュテーションに必要かを論じていた。繰り返しの場合には、オペランドに書かれたアドレスを修正していく。真空管全盛の時代にこんなことを考えていたなんて。刺激と応答というアナログコンピュータの設計をはじめていたように見える。
Marvin MinskyもFarley & Clarkの研究を引用して1956年の論文を書いている。編集者にtime travelingを楽しんでる、と言われた。話は、60年代と現代では済まなくなった。60年代後半までは私自身の知覚がある。それ以前はねぇ、でもわかる範囲は私にとっての実感がわかる。
2026.3.10記載の上記に対する自分の深掘り:オペランドにある番地情報をインデックスしていくのではなくて、じかに命令の中を書き直していくアイデア。Joniac後継のIBM7040と1401という組み合わせを高校の頃アセンブラレベルで使っていた。動かすともう機械語プログラムの実態は、人間が管理するソースコードから変わっていく。これは私も実際に体験した。高校の文化祭のアンケート集計をこれでやった。1968年の事。機械語命令を変えていくから、もうそれを設計した本人でも次第に動作の詳細は分からなくなるが機能はする、というプログラムになる。
2023.3.11記載:難解!というかしっかりと一文一文正確に把握しないといけない。フォンノイマンは、数学者としての厳密さを持って、逐次制御回路の実装に支えられたデジタルコンピュータの特性、向いている使い方を述べ、次に、当時すでに判り始めていた神経網の持つ仕組みによるコンピュテーションの特性、向いている使い方を述べ、その神経網の人工的な真似の仕方を論じ、サイズ、速度、エネルギー消費、全体的な特性について、後者が持つ並列処理能力への実現論も含めて、細かく比較している![]()
基本線はすでに、1957年には並べられたと言っていい。デジタルコンピュータは、インクリメンタルに改良され続けた。人造ニューラルネットは80年代後半に芽が出始めた。そしてようやく2011年くらいに脚光を浴びるレベルに到達する。不屈の研究者達がいた。
2026.3.11ここに記載:資料名が出てこないが、デジタルコンピュータによるアナログコンピューティングの等価コードの開発には、上記の一連のフォンノイマンの思いがあり、そこから整理されリセットされた発想に基づいて、The Comptuer and the brainがある、という一面がある。つまり、自己増殖性あるいは自律的なロジックの変更をそこに見たと思う。40bit一語に2命令から1命令になり命令コードに対するオペランド部が長くなった。12bitではメモリスペースが足りないのが即座に見えたということもあろう。しかし、1語の中の、それら命令補正部を書き直すという操作は残された。これがLispの構造を決定的に導入したと考えるのは自然である。すなわち、CAR部、CDR部のペアとして1語の構成を見る。そうすると、機械語命令と算術的な知識と情報構造的知識を統一した形で扱うことができる。これについてはSpringerの第一章に記載しておいた。繰り返しの中で一次元配列の要素に対して順に同一の処理をほどこしていく仕組みをどう作るかは、コンピュータの命令ロジックの設計にもっとも根幹的な解決対象だった。命令のオペランド部を実行のたびに書き換える、インデクスレジスタを置きそこを書き換えてそのレジスタを参照しながら対象アドレスを決めることでソースとオブジェクトの一致を保つ、これはのちの並列演算命令を自然に発生させる、いやそうではない、大規模で複雑な処理を自動で行わせるにはいずれにしても人間プログラマが記述したままの姿でコンピュータプログラムが実装されているのでは限界がある、ニューロアプローチだ、これが今でもまだ実証実験が続いている。
そしてこのような対比になることを彼は50年代に予想していた。そして明らかに彼の早すぎる死は後者の発展にとってブレーキとなった。彼のまわりには人材が集まったし、なにより、彼自身、artifical nervous systemによるコンピュテーションの実装へのイメージを持っていた!