banner
ニュース センター
当社のオンライン サービスは 24 時間ご利用いただけます。

極めて同期された脳波は、人間の記憶と学習のための効果的で堅牢かつ柔軟な基盤を形成します。

Jul 21, 2023

Scientific Reports volume 13、記事番号: 4343 (2023) この記事を引用

1371 アクセス

3 オルトメトリック

メトリクスの詳細

記憶と学習の有効性、堅牢性、柔軟性は、人間の自然な知性、認識、意識のまさに本質を構成します。 しかし、これらの主題について現在受け入れられている見解は、これまでのところ、脳が電気信号を介して内部でどのように通信するかについての真の物理理論に何の根拠もなしに提唱されている。 この確固たる理論的枠組みの欠如は、脳がどのように機能するかに関する私たちの理解だけでなく、ホジキン・ハクスリーの広告に基づいて脳の神経細胞組織と脳ネットワークから派生した機能に関する標準的な正統派の見解から開発された広範な計算モデルにも影響を及ぼします。 -hoc 回路のアナロジーにより、多数の人工、リカレント、コンボリューション、スパイキングなどのニューラル ネットワーク (ARCSe NN) が生み出され、人工知能 (AI) と機械学習の基礎を形成する標準アルゴリズムが誕生しました ( ML) メソッド。 最近開発された弱エバネッセント脳波伝播の物理モデル(WETCOW)に基づく私たちの仮説は、脳ニューロンが単に統合してゆっくりとした漏れを伴って発火するだけであるという現在の伝統的なモデルとは対照的に、脳ニューロンは代わりにはるかに高度なタスクを実行できるというものです。伝播する非線形の近臨界脳波(現在は取るに足らない閾値下のノイズにすぎないと考えられている脳波)の集合的な影響によって導かれる、効率的なコヒーレントな同期/非同期。 このペーパーでは、WETCOW フレームワークの学習機能と記憶機能に焦点を当て、それを AI/ML およびニューラル ネットワークの特定のアプリケーションに適用します。 私たちは、これらの厳密に同期された脳波に触発された学習は浅いものであるにもかかわらず、そのタイミングと精度が標準的なテスト データセットでの深い ARCSe の対応物よりも優れていることを実証します。 これらの結果は、脳機能の理解と幅広い AI/ML アプリケーションの両方に影響を与えます。

人間の記憶のメカニズムは、現代科学において依然として未解決の大きな謎の 1 つです。 人間の学習の重要な要素である記憶に関する一貫した理論の欠如は、私たちの認知の理解にも広範な影響を及ぼします。 実験神経科学と神経画像処理の最近の進歩により、細胞内樹状突起、シナプス、軸索、体細胞のミクロスケールから相互作用するメソスケールに至るまで、脳機能において作用する広範囲の空間的および時間的スケールの相互作用を考慮することの重要性が浮き彫りになっている。神経回路のネットワーク、脳全体の回路のマクロスケール。 これらの実験データから導き出された現在の理論は、刻々と変化する外部刺激を学習して適応する人間の能力は、さまざまな要素間の柔軟な配置から得られる、複雑で適応性があり、効率的で堅牢な回路、ネットワーク、アーキテクチャの開発に基づいていることを示唆しています。脳内の神経細胞と非神経細胞の種類の比較。 したがって、記憶と学習の実行可能な理論は、観察されたデータと一致するマルチスケールの時空間現象を生成できる物理モデルに基づいている必要があります。

脳の電気活動に関する現在のすべてのモデルの中心となるのは、Hodgkin と Huxley (HH)1 によって定式化されたニューロン スパイキング モデルです。このモデルは、Na+/K+ フラックス、電圧依存性および時間依存性のコンダクタンス変化、活動電位の波形を定量的に説明しています。 、および神経線維に沿った活動電位の伝導2。 残念なことに、HH モデルは、マルチパラメトリックな方程式セットを局所膜測定値に当てはめる際には役に立ちましたが、脳ニューロンの相互接続されたネットワークで生じる複雑な機能を解読する際には、このモデルの有用性は限られていました。 実用的な観点から見ると、元の HH モデルは複雑すぎて、比較的小規模なネットワークですら記述できません 4、5、6。 これにより、これらの複数のゲートをすべて置き換えることができるため、ニューラル ネットワークで使用するのに十分単純なリーキー統合発射 (LIF) ニューロンの大幅に縮小されたモデルに基づく最適化技術 7、8、9、10 が開発されました。 、電流、チャネル、およびしきい値を 1 つのしきい値と時定数だけで処理します。 スパイキング ニューラル ネットワーク (SNN) モデルの大部分は、いわゆる「深層学習」にこの単純な LIF ニューロンを使用しており、これは脳の機能からインスピレーションを得ていると主張しています。 大規模なデータセットの画像分類には複数の LIF モデルが使用されています 15、16、17、18、19 が、過度に単純化された LIF モデルであっても複雑なダイナミクスと微分不可能な演算があるため、SNN のほとんどのアプリケーションは依然としてそれほど複雑ではないデータセットに限定されています。 LIFスパイクニューロン。 いくつかの注目すべき研究では、物体検出タスクに SNN を適用しています20、21、22。 スパイクベースの方法もオブジェクト追跡に使用されました23、24、25、26。 オンライン学習 27 、点字文字の読み取り 28 、生物学的問題の検出と分類のためのさまざまなニューロモーフィック シナプス デバイス 29 に LIF スパイキング ネットワークを使用する研究がブームになっています 30,31,32,33,34,35,36。 重要な研究は、人間レベルの制御37、スパイクネットワーク用のバックプロパゲーションアルゴリズムの最適化38、39、40、およびイベント駆動パラダイム 36、40、45、46、バッチ正規化の適用 47、散布と収集の最適化 48、教師あり可塑性 49、タイムステップバイナリマップ 50、転移学習アルゴリズムの使用 51。 この広範なソフトウェア アプリケーションと連携して、ニューロモーフィック ハードウェア 52、53、54、55、56、57 の助けを借りて組み込みアプリケーションでこれらの LIF SNN を開発および使用することを目的とした膨大な量の研究が行われています。名目上、人間の脳の構造と機能に基づいているか、またはそれに触発されたハードウェアです。 ただし、LIF モデルは広く受け入れられており、神経科学のいたるところに普及していますが、それ自体ではスパイクを生成しないという点で問題があります。

\pi /2\)) roles (this is in addition to any phase shift introduced by the static network attributed phase delay factors \(\delta _{ij}\))./p>