直达「 通往AGI之路 」飞书知识库 →
知识库精选- 2025 年 2 月 19 日
知识库精选- 2025 年 2 月 19 日
知识库精选|2025-2-19|最后更新: 2025-2-19
type
status
summary
date
slug
tags
category
password
icon
  • 跟硅谷AI新星聊了一圈后,我们发现了中美创业的不同,以及突围点》中美 AI 创业者在全球化背景下展现出明显差异,华人团队在用户体验和增长方面具有竞争优势,而硅谷在 B 端领域更加成熟。随着技术差距缩小,两国在创业生态上形成并行竞争态势。此次硅谷交流不仅增强了信心,更明确了中美创业者的优势与目标。正如臧天宇所言:“创新的关键在于如何组织高密度的人才团队。”
notion image
notion image
  • 一文讲透关于DeepSeek的7个核心问题 | 峰瑞报告》DeepSeek 凭借其创新的推理模型和极低的算力成本迅速崛起,成为全球 AI 领域的焦点。其技术突破不仅在于优化现有模型架构,还通过开源打破了行业垄断,激发了中国 AI 发展的信心。正如报告所言:“DeepSeek 的成功,或许只是中国技术创新的新起点。”
notion image
  • 梁斌:《文科生听懂大模型》作者围绕大模型相关知识展开,先介绍神经网络基本原理,包括权重、偏置、激活函数、梯度等概念,以及AutoEncode的原理与应用。接着讲解Transformer架构、注意力机制等,力求让文科生也能听懂大模型。
notion image
  • 最豪华大模型创业阵容!OpenAI前CTO组建,翁荔、Schulman等ChatGPT核心成员加盟》Thinking Machines Lab 新成立,汇聚前 OpenAI 顶尖团队,包括前 CTO Mira Murati、首席科学家 John Schulman 等,致力于推动人工智能研究的开放性与应用。团队承诺通过论文与代码分享,提升人机协作,推动科学与工程的突破。他们的目标是构建最先进的模型,力求 “让 AI 为每个人服务”,开创一个知识与工具普及的未来。
notion image
  • DeepSeek最新论文科普解读:NSA,物美价廉的超长上下文方案》作者马丁的面包屑,DeepSeek 最新论文提出了 “Native Sparse Attention”(NSA),一种高效的超长上下文方案,兼顾训练和推理阶段,显著提升模型性能。NSA 通过压缩、选择和滑动窗口三种机制,提升计算效率,前向传播速度提高 9 倍,解码速度提升 11.6 倍。其核心在于聚焦重要信息,优化注意力机制,训练出更聪明的模型,甚至在推理任务中表现优异。
notion image
  • 梁文锋携deepseek研究团队丢出重磅研究论文成果.pdf》介绍了一种新颖的方法——原生稀疏注意力(NSA),旨在提高长上下文建模的效率,尤其是在语言模型中。NSA的主要创新在于它能够结合算法进展与硬件对齐优化,从而实现训练和推理过程中高效的计算,特别是在处理长序列时。作者提出了一种动态层次稀疏策略,结合了粗粒度的令牌压缩和细粒度的令牌选择,确保了全局上下文感知和局部精度的同时保留。
notion image
知识库精选- 2025 年 2 月 20 日知识库精选- 2025 年 2 月 18 日