Archives

2025 / 03

忆生科技团队开源的视觉预训练方法SimDINO于2025年3月公布并开源。知名智能领域媒体量子位于2025年3月在该工作开源后第一时间进行了报道。 报道链接 港大马毅团队等开源新作:用编码率正则化重构视觉自监督学习范式,“少即是多” 以下为报道全文: 最新开源的视觉预训练方法,由忆生科技、微软研究院

2025 / 02

我们相信与生物智能曾经的发展历程相似,机器智能的发展势必会经历三个阶段: 我们认为:定义AI 的发展阶段,应该从智能技术的本质出发。真正智能化的个体,无论是生物智能体还是机器智能体,都应该具有在开放世界自主学习获取新知识的能力。真正的AI2.0应该是能够从真实开放的物理世界中自主学习的智能系统。 一
该研究深入探讨了监督微调(Supervised Fine-Tuning,SFT)和强化学习(Reinforcement Learning,RL)在基础模型后训练阶段对模型泛化能力的影响。研究发现,SFT倾向于记忆训练数据,而RL更擅长学习可推广的规则,从而在未见过的任务中表现出色。 论文名称:SFT
论文名称 MASKED COMPLETION VIA STRUCTURED DIFFUSION WITH WHITE-BOX TRANSFORMERS 全文:https://arxiv.org/pdf/2404.02446 GitHub:https://github.com/Ma-Lab-Berke
论文名称:Closed-Loop Transcription via Convolutional Sparse Coding 论文全文:https://arxiv.org/pdf/2302.09347 顶会收录:CPAL2024 核心信息: 在论文《Closed-Loop Transcription
该工作由忆生科技创始团队成员及旗下研究人员深度参与,由多所学校与机构的研究者共同完成,包括加州大学伯克利分校、宾夕法尼亚大学、密歇根大学、清华大学、忆生科技、香港大学、约翰·霍普金斯大学等。 忆生科技创始人马毅教授已受邀在今年四月的ICLR大会上就和此项成果相关的一系列白盒神经网络相关工作,进行为时
论文名称:Scaling White-Box Transformers for Vision GitHub主页: https://rayjryang.github.io/CRATE-alpha/ 论文地址:https://arxiv.org/pdf/2405.20299 顶会收录:NeurIPS20
论文名称:White-Box Transformers via Sparse Rate Reduction: Compression Is All There Is? GitHub:https://ma-lab-berkeley.github.io/CRATE/ 地址:https://arxiv.o
该框架通过在特征空间中建立数据分布与线性判别表示(Linear Discriminative Representation,LDR)之间的闭环转录,实现数据的有效编码和解码。LDR由多个独立的多维线性子空间组成,每个子空间对应一个数据类别。 论文名称:CLOSED-LOOP DATA TRANSCR