Quantcast
Channel: フリーエージェント世界革命を提唱するフリーエージェント大学ロシアの有名人・ドクター佐野千遥教授
Viewing all articles
Browse latest Browse all 690

「2045年AI問題とディープラーニングのまやかし!¡!」12月28日講演会!!Dr佐野千遥

$
0
0

AI学習理論Ph.D.

ロシア科学アカデミー・スミルノフ物理学派数理物理学最高権威者

数理物理学Ph.D.

 

                                          Dr佐野千遥

 

「2045年AI問題とディープラーニングのまやかし!」12月28日(金)Dr佐野千遥 講演会に参加御希望の方は 

http://allahakbar231.blog.fc2.com/blog-entry-44.html

より、参加御希望の旨を申請して下さい

 

講演会に御参加下さいました方々だけには、「発見的学習人工ニューラルネットワーク仕様書」を驚くべき事に無料で配布いたします

「発見的学習人工ニューラルネットワーク仕様書」はこの講演会会場以外では配布せず、若し特別に別途御所望の方は有料となります。

全て誤謬のサイエンス体系が支配している現代世界に於いて、創出した真のサイエンス体系から生み出されたこの「発見的学習人工ニューラルネットワーク仕様書」がどれ程の価値有る物かは、私のブログ論文をお読みになれば良くお分かりになると思います。

 

第1章:2045年AI問題

 

誤った科学哲学の下に発展してきた“コンピュータ科学”の生み出した今日の誤った科学哲学のAIは、2045年には人類全員を押し退け、失業状態に落し込めようとしている。

 

もうその時代には、国会で景気浮上作を論議する事自体が人類の為には何の役にも立たなくなる!

自分の業種はAIに侵食されるかどうかが皆さんの最大関心事かもしれないが、そのような時代にもロボットに対し優越した独自の価値(金銭で測る事ができない価値)を持った活動を断固続行できる為の秘訣を以下に論じよう。

 

私・佐野千遥は1980年代~1990年代前半まで、ヨーロッパ、アメリカでの人工知能研究の第一人者でした。

1990年代に日本国内で出版したAI関連の著作

「人工知能と人工生命」 佐野千遥著 日刊工業新聞出版

「知的人工生命の学習進化」 佐野千遥著 森北出版

も有り、これ等の著作は現在、日本のAI専門の大学・大学院で参考文献となっており、またAI研究部門の学術論文中で度々引用されてもいます。

 

第2章:そもそも現行の“コンピュータ科学”とは「科学」ではない。

 

そもそも現行の“コンピュータ科学”とは「科学」ではない。

何故なら、アングロサクソン民族が造ったものだからである。

 

アングロサクソン民族は英語という文法と言う文法を品詞の並びの規則性を除いてほぼ全てを斬り捨ててしまった余りに単純化し過ぎた言語を母国語としている為に、幼い頃に論理訓練がなされてない。

 

ところで科学する基本は発見的学習に存するのに、そして発見的学習とは研究者に論理能力が有って初めてデータの背後に存する論理的因果律の発現の法則性を抽象抽出する事に依り実現されるのに、アングロサクソン民族は論理性が無く、その結果、発見的学習が出来ない。

 

その結果、アングロサクソン民族が造った“コンピュータ・サイエンス”は正に“サイエンス”ではない。何故なら“コンピュータサイエンス”を造ったアングロサクソン民族は論理性が無く、その結果、発見的学習が出来ないからである。

 

そもそも現行“Von Neumann型コンピュータ”の計算機数学モデル・チューリングマシン論は、統合失調所のシュレーディンガーの幻覚症状に合わせて造ってしまった誤謬の現代量子物理学と同じ“パラレルワールド”、“状態と状態から別の状態への状態遷移”(=静的計算機数学モデル)を考えてしまった誤った計算機数学モデルである。誤った計算機数学モデルであるために、計算量の組み合わせ論的爆発の壁に阻まれ、“量子コンピュータ”と言った偽りの並行処理論に迷い込むのである。

 

本当の計算機数学モデルは多項式であるべきである。

 

このように科学的根拠を問わず、

 

パーセプトロンや4層の人工ニューラルネットワークの記述は

https://ja.wikipedia.org/wiki/%E3%83%91%E3%83%BC%E3%82%BB%E3%83%97%E3%83%88%E3%83%AD%E3%83%B3

<以下引用>

 

“人間の脳の構造を模した機械学習における最初の手法であるパーセプトロンが考案されたのは1957年であるが、マシンスペックの大幅な不足や、排他的論理和の認識ができないなどの欠点が露呈したため、研究が大きく続けられることはなかった[7]。その後、1980年代より、排他的論理和の問題を解決したバックプロパゲーションが開発されたが、非効率的なメカニズムや、動詞の過去形など複雑な認識ができない(そもそも3層ニューラルネットで任意関数は全て近似可能であり、大脳新皮質がなぜ3層以上存在するのかが不明であった)などの要因により、1990年代後半には沈静化した[8][9]。

 

長らく冬の時代が続いていたニューラルネットワークであるが、2006年にジェフリー・ヒントンによってスタックドオートエンコーダなど多層にネットワークを積み重ねる手法が提唱され、さらに2012年には物体の認識率を競うILSVRCにおいてジェフリー・ヒントン率いるトロント大学のチームがディープラーニングによって従来の手法(エラー率26%)に比べてエラー率17%と実に10%もの劇的な進歩を遂げたことが機械学習の研究者らに衝撃を与えた。その後もILSVRCでは毎年上位はディープラーニングを使ったチームが占めるようになり、エラー率はすでに5%程度にまで改善している[10]。

 

今日のディープラーニングにつながる世界的に最も先駆的研究として、日本の福島邦彦(NHK放送技術研究所、その後大阪大学基礎工学部生物工学科)によって1979年に発表されたネオコグニトロン[11][12]が挙げられる”

 

<以上引用>

 

の様にいきあたりばったりのものであり、アングロサクソン民族によるニューラルネットワークの研究の歴史的経緯はおよそ数学的とか科学的とは程遠いものでしかなく、経験主義的エンジニアリング的思い付き的な物でしかない事が良く分かる。

 

しかもその確率論的ニューラルネットワーク数学モデルであるボルツマン・マシンの基礎であるホップフィールド・ネットの作動アルゴリズムの記述

 

“各ユニットはMcCulloch-Pitts 型入出力特性をもっている。

タイムスライス t において、 w{ij}(t) をユニットjからiへの結合係数、–θ{i}(t)をユニットiの閾値、x{i}(t)をユニットiの出力とする。ここで全てのi, jの組について、i ≠ jならばw{ij}(t)=w{ji}(t)、i = jならばw{ij}(t)=0である。またネットワーク全体のエネルギー E(t) を、次のように定義する

 

E(t) = – (1/2)*Σ<i≠j>w{ij}*{x{i}(t)}*{x{j}(t)}} – Σ<i>{theta {i}(t)}*{x{i}(t)}

 

以上の構造を持つモデルをタイムスライス毎に次のように動作させる

 

ランダムにユニットを一つ選ぶ

そのユニットへの入力の重み付き総和を計算する

結果に基づき、そのユニットの出力を更新する

閾値より大きければ1

閾値と等しければ現在と同じ値

閾値より小さければ0

(この際、他のユニットには手を触れない)

tを増分だけ増加させ最初に戻る

すると、E(t) はtの増加と共に単調減少することが容易に示される”

 

を読んで見ると、論理性に決定的に欠けており、誰が読んでも必ず理解できて一通りしか解釈の仕方が無いような科学的記述とは程遠い。[註]

 

[註]:アングロサクソン特有の非論理性は、先ず第1に

1.

{x{i}(t)}=Σ<i≠j>{w{ij}*{x{j}(t)}}

でjを1,2,3,…と動かして{x{i}(t)}を先ず総和として計算する事が、この言葉表現では全く読み取れない点

2.

その様な計算で得られた{x{i}(t)}が

|{theta {i}(t)}| < |{x{i}(t)}|

の条件を満たした場合のみ

{x{i}(t)} = 1

の値を取る。

として、その値を基にE(t)を計算し終えると、時間tを1ステップ進める

 

という意味であるのだが、この様な解釈は、ホップフィールド・ネットの動作メカニズムを事前に知っている者にしか推定しようがないような、論理的説明の欠如と飛躍に見られる点に現れている。

そして非論理性は第2には、上記引用には

“E(t) はtの増加と共に単調減少することが容易に示される。”

と書いておきながら

“統計的な変動をもちいて、エネルギーが極小値ではなく最小値をとることを目指すモデルである”

とも書いて有り、“E(t) はtの増加と共に単調減少する”ならば、計算が完了した各ステップは毎回最小値であるのだから、全各ステップが最終解となってしまう、つまり何処まで行っても上り勾配に転じる極小値は現れないので、どの時点で学習を完了すれば良いのか無限時間掛かっても結論付ける事ができなくなる

又逆に、若し本当に極小値なるものが起こるなら減少した後増加に転じなければならず、“E(t) はtの増加と共に単調減少する”ことは有り得ない事と成り理論の定義記述自体に矛盾を生じる。

アングロサクソンの書く文章とはこの様にこの本来科学論文であるべき分野に於いてすら非論理的である事がお分かりになるであろう。

読者の皆さんが常日頃経験している様に、パソコンやインターネットの説明書やメッセージが悉く読解不可能なくらい論理的大混乱に有るのは、元を正せば文法が破壊され尽くされた英語という言語を母国語としたために幼い頃論理訓練を受けなかった結果、論理的思考が出来ないアングロサクソンが創り出した”学問”の領域がコンピュータ”科学”であるからである。

 

それと最小作用の法則より、物理的自然現象は大局的且つ局所的最適な単一経路をとって進行するのであるから、パラレルワールドなる物は存在しない事がスミルノフ物理学により物理的に厳密に論証されており、真実は一つのみであり、脳内の物理現象も自然現象であるのだから、学習に付いても真実は単一の学習過程のみ実現するのであって、幅の有る閾値の仕組みに依って、実際には複数世界に股がってデミウルゴの如くに存在すると誤って仮定されている“確率変数”なる概念の上に定義されているマルコフ不等式の確率変数に確率が割り振りされるパラレルワールドの可能性が常に残る計算機モデルは物理科学的に誤りであることが論証される。

 

“ディープラーニング”と今日呼ばれているものは、数学定理自動証明AIのような高度な学習ではなく、画像のパターン、音声のパターン、等を表層的に“キャッチ”して記憶する程度のものでしかない。このような表層的な“キャッチ記憶”でしかないから、深層科学理論を理解する能力にアングロサクソンと同じ理由に依って欠けていてコピーすることしか知らない中共人は、画像のパターン、音声のパターン、等、表層的な“キャッチ記憶”装置を使って中共に於ける支配階級中国共産党社会帝国主義の為のAI監視密告システムを中共全土至る所に張り巡らしている。

 

今日のAI学会は論理的科学的厳密性に大きく欠けて居て(そうなる理由はコンピュータ科学なるものを造ったアングロサクソン民族が論理能力に欠けているから)数学定理自動証明AIシステム(ATP)が1980年代にほぼ完成した、と誤った解説をしているので、此処に本当の現状を述べたいと思う。

 

ATPは既に基本的定理体系一式が見つかっている数学分野で、その見つかっている定理を基にトップダウン的に色々な命題や補足的定理や系を導く事が出来る事が証明されただけで、今迄見つかっている定理体系の上方に未発見の定理を発見的学習により見つけ出す事は未だ全く出来る状態に有らず、ましてや今迄見つかっている定理体系の上方に未発見の定理を発見的学習により見つけ出して論証した上で、今問題となっている定理の証明を完成させる能力は現行ATPには更々無いのである。

 

よって此処に現行の“ディープラーニング”とは全くのまやかしでしか無い事が論証された。

 

12月28日講演会では、どの様な計算機数学モデルを構築すれば本物の「ディープラーニング」が出来る様に成るかを解説する。

 

第3章:ニューラルネットワークは電気信号でなく磁気信号で作動

 

「ニューラルネットワークは電気信号でなく磁気信号で作動!」この事を明言するのは世界史上、ニューラルネットワーク研究で私・佐野千遥が初めてである。

 

1秒間に数ミリしか電子の流れが進まない電気による信号では、人間の頭脳の瞬時の判断対応を説明する事ができない。オーソドックスなニューラルネットワーク学派は、電流に対して閾値を持ったシナップスを越えて実際に電流が流れて電気信号を1ステップ進められると想定し、しかも蝸牛の如く鈍(のろ)いその電気信号を何度も試行錯誤しながら送り合って初めて学習がようやく完了して、それからやおら実働が開始する現行ニューラルネットワーク・モデルでは時間的に明らかに現実にそぐわない。

 

瞬時に遠距離の通信が出来るのは磁気である。

 

膜電流等は脳細胞の掃除・メンテナンス調整に使われているだけで、推論や学習の為に使われている分けでは無い。この事は今迄の全てのニューラルネットワーク・モデル、人工ニューラルネットワーク・モデルは誤りであり、その研究は無意味であった事を意味し、その為に真に社会正義に役立つニューラルネットワークではなく、理論的には邪道でいかないエントロピー増大的表層的パターン認識機能を“ディープラーニング”とか称して、支配階級の為の監視密告システムを造りファシズム体制を造るのに貢献するように使われる事と成った。

 

従来のオーソドックスなニューラルネットワーク・モデルの重み付け足し算では閾値を設けようが結局基本的には線形関数(足し算の関数)しか扱えない。

 

学習とはあらゆる形状をした関数の学習であり、任意の関数は必ずTaylor展開・MacLaurin展開(多項式)ができて。高次の項は入力信号の間の掛け算により生じて居る。

 

よって人工ニューラルネットワークの最適数学モデルは磁気信号に付いての多項式型のGMDH(Group Method for Data Handling)となる。GMDHには閾値が存在しないのは、磁場が全ての物質を透過する事に対応している。

 

 

12月28日(金)「2045年AI問題とディープラーニングのまやかし」Dr佐野千遥 講演会に参加御希望の方は 

http://allahakbar231.blog.fc2.com/blog-entry-44.html

より、参加御希望の旨を申請して下さい

 

講演会に御参加下さいました方々だけには、「発見的学習人工ニューラルネットワーク仕様書」を驚くべき事に無料で配布いたします

「発見的学習人工ニューラルネットワーク仕様書」はこの講演会会場以外では配布せず、若し特別に別途御所望の方は有料となります。

全て誤謬のサイエンス体系が支配している現代世界に於いて、創出した真のサイエンス体系から生み出されたこの「発見的学習人工ニューラルネットワーク仕様書」がどれ程の価値有る物かは、私のブログ論文をお読みになれば良くお分かりになると思います。

 

<本論は以上>

 

 

 

0月26日対決外語速習講座Dr佐野千遥:東京五輪時中共が人工地震→外人暴動→中共軍災害救助暴動鎮圧偽って日本本土上陸!暴動起こすなと説得!イスラム教徒には対中共共同闘争呼び掛け!

 

別の角度から

youtube

 

Dr佐野千遥の政治学原論講義youtube Channel「9月28日世界の重大真実」を御視聴下さい。

https://youtu.be/ToCvXlSNqx0 

 

別角度から撮ったyoutube 動画

https://youtu.be/AWCzQw9Xi8E 

 

 

8月31日の講演会は盛況でした!有難うございました!

2018年8月31日講演会を撮った「channel世界の重大真実」インターネットTVの動画です。

 

別角度から8月31日スミルノフ医学講演会youtube

https://youtu.be/kMJI3UxMmBs

 

 

8月31日の講演会の際に3cm x 4cm x 5cm の直方体型の2本のコード付きアダプターを受付の机の上にお忘れになった方が参加者の中にいらっしゃるようですが、お心当たりの有る方は御連絡下さい。

 

その6月29日真の物理学とは何かの討論会のyoutubeです

https://youtu.be/anILaL6mCJE

 

 

以上

 


Viewing all articles
Browse latest Browse all 690

Trending Articles