更高效的白盒模型ToST,ICLR2025

该工作由忆生科技创始团队成员及旗下研究人员深度参与,由多所学校与机构的研究者共同完成,包括加州大学伯克利分校、宾夕法尼亚大学、密歇根大学、清华大学、忆生科技、香港大学、约翰·霍普金斯大学等。 忆生科技创始人马毅教授已受邀在今年四月的ICLR大会上就和此项成果相关的一系列白盒神经网络相关工作,进行为时

忆生科技 忆生科技 Published on 2025-02-22

白盒CRATE具有可扩展性,NeurIPS2024

论文名称:Scaling White-Box Transformers for Vision GitHub主页: https://rayjryang.github.io/CRATE-alpha/ 论文地址:https://arxiv.org/pdf/2405.20299 顶会收录:NeurIPS20

忆生科技 忆生科技 Published on 2025-02-22

Compression Is All There Is? NeurIPS 2023, CPAL 2024, ICLR 2024

论文名称:White-Box Transformers via Sparse Rate Reduction: Compression Is All There Is? GitHub:https://ma-lab-berkeley.github.io/CRATE/ 地址:https://arxiv.o

忆生科技 忆生科技 Published on 2025-02-22

闭环学习,Closed-Loop Data Transcription to an LDR via Minimaxing Rate Reduction, Entropy 2022

该框架通过在特征空间中建立数据分布与线性判别表示(Linear Discriminative Representation,LDR)之间的闭环转录,实现数据的有效编码和解码。LDR由多个独立的多维线性子空间组成,每个子空间对应一个数据类别。 论文名称:CLOSED-LOOP DATA TRANSCR

忆生科技 忆生科技 Published on 2025-02-22

最大化编码率降低原则MCR²,NeurIPS 2020

论文名称:Learning Diverse and Discriminative Representations via the Principle of Maximal Coding Rate Reduction 地址:https://arxiv.org/abs/2006.08558 论文全文:h

忆生科技 忆生科技 Published on 2025-02-22

探索智能本质,理解记忆机制,加速迈向自主智能时代

生物演化与脑神经科学研究正不断给我们带来启发。上世纪40年代的智能探索中,还有太多思想宝藏值得挖掘。 生物智能发展史

忆生科技 忆生科技 Published on 2024-12-23
Previous Next