勉強会の目的

以下のトピックに関心を持つ方にご参加いただき,大規模言語モデル(LLM)のコアエンジンとも言える Transformer と脳の関係について理解を深める場を作っていきたいと思います.

  1. 脳と Transformer の関係
  2. 機械学習業界で議論されている「生物学的に妥当性のある」深層学習モデルと Transformer の関係(例えば modern Hopfield network や canonical neural network など)

概要

形式

発表者

発表内容

発表時間は1人あたり45分とします(発表時間35〜40分+議論5〜10分)

発表者全員,発表時間中の質問は 🙆 です

5/21(日) 12:55~13:00 主旨説明・挨拶 5/21(日) 13:00~13:45 林祐輔 「注意機構・メタ学習・生物学的妥当性の交差点」 5/21(日) 13:55~14:40 山本拓都「Vision Transformerと脳における視覚処理」 5/21(日) 14:50~15:35 倉重宏樹「脳の局所回路と海馬と(言語と)Transformers」 5/21(日) 15:45~16:30 フリーディスカッション

日時・会場

日時     :5/21(日) 12:55~16:30 会場     :東海大学品川キャンパス 1号館2階1205室(予備1206室, 倉重先生のご厚意に         より,こちらの教室を使用させていただけることになりました) オンライン配信:https://meet.google.com/otk-uwzw-yjt