文章转载自:知识分子 The Intellectual 编者按 今年年初,国产大模型DeepSeek凭借低成本和优秀的推理能力震动了业界,但对普通人来说,恐怕给人更深刻的是它犀利的语言风格。看惯了GPT-4百科式精准而波澜不惊的语言风格,DeepSeek的嬉笑怒骂让人亲切得多,甚至有时会让人觉得恍惚
转载自:DeepTech深科技 原文链接:https://mp.weixin.qq.com/s/M7R6ZCly2JpVa1wBQHFQSg 近日,在
内容来自Geoffrey Hinton在瑞典皇家工程科学院(IVA)交流实录: (转自Z Potentials,版权属于原作者) Geoffrey Hinton在认为:智能的本质是学习——人工智能是在神经网络中进行学习的,视觉和运动控制是基本的,而语言和推理则是在这些基础之上发展出来的。 我们进化出
来源:北京大学前沿计算研究中心 微信公众号 编者按 2025年3月14日,香港大学计算与数据科学学院院长马毅教授访问北京大学前沿计算研究中心,并在静园五院作了题为“Pursuing the Nature of Intelligence”的学术报告,北京大学前沿计算研究
3月13-14日,忆生科技创始人马毅应清华大学、北京大学、北京邮电大学等在京高校邀请,进行了多场主题为Pursuing the Nature of Intelligence的学术演讲。 以下为北京邮电大学演讲现场视频实录: 在演讲中,马毅回顾了生物智能发展的整个过程。他表示:某种意义上,生命就是智能
忆生科技团队开源的视觉预训练方法SimDINO于2025年3月公布并开源。知名智能领域媒体量子位于2025年3月在该工作开源后第一时间进行了报道。 报道链接 港大马毅团队等开源新作:用编码率正则化重构视觉自监督学习范式,“少即是多” 以下为报道全文: 最新开源的视觉预训练方法,由忆生科技、微软研究院
我们相信与生物智能曾经的发展历程相似,机器智能的发展势必会经历三个阶段: 我们认为:定义AI 的发展阶段,应该从智能技术的本质出发。真正智能化的个体,无论是生物智能体还是机器智能体,都应该具有在开放世界自主学习获取新知识的能力。真正的AI2.0应该是能够从真实开放的物理世界中自主学习的智能系统。 一
该研究深入探讨了监督微调(Supervised Fine-Tuning,SFT)和强化学习(Reinforcement Learning,RL)在基础模型后训练阶段对模型泛化能力的影响。研究发现,SFT倾向于记忆训练数据,而RL更擅长学习可推广的规则,从而在未见过的任务中表现出色。 论文名称:SFT
论文名称 MASKED COMPLETION VIA STRUCTURED DIFFUSION WITH WHITE-BOX TRANSFORMERS 全文:https://arxiv.org/pdf/2404.02446 GitHub:https://github.com/Ma-Lab-Berke