📢 Gate广场独家活动: #PUBLIC创作大赛# 正式开启!
参与 Gate Launchpool 第 297 期 — PublicAI (PUBLIC),并在 Gate广场发布你的原创内容,即有机会瓜分 4,000 枚 $PUBLIC 奖励池!
🎨 活动时间
2025年8月18日 10:00 – 2025年8月22日 16:00 (UTC)
📌 参与方式
在 Gate广场发布与 PublicAI (PUBLIC) 或当前 Launchpool 活动相关的原创内容
内容需不少于 100 字(可为分析、教程、创意图文、测评等)
添加话题: #PUBLIC创作大赛#
帖子需附带 Launchpool 参与截图(如质押记录、领取页面等)
🏆 奖励设置(总计 4,000 枚 $PUBLIC)
🥇 一等奖(1名):1,500 $PUBLIC
🥈 二等奖(3名):每人 500 $PUBLIC
🥉 三等奖(5名):每人 200 $PUBLIC
📋 评选标准
内容质量(相关性、清晰度、创意性)
互动热度(点赞、评论)
含有 Launchpool 参与截图的帖子将优先考虑
📄 注意事项
所有内容须为原创,严禁抄袭或虚假互动
获奖用户需完成 Gate广场实名认证
Gate 保留本次活动的最终解释权
2025年顶尖AI影响者:经过验证的、受尊重的、被关注的
简要
2025年,十位塑造人工智能未来的关键人物——从完善其核心设计的实验室到设定其边界的政策制定者。他们的理念、研究和领导力正在推动全球人工智能的构建、共享和使用发生真正的变化。
这不是一个名人名单。这里的每个人都有真实的影响力、明确的专业知识,以及在人工智能社区内引导讨论的记录。他们的观点很重要,因为它们来自于构建、指导和挑战塑造我们未来的系统。
Yann LeCun仍然是人工智能领域最强有力的声音之一,尤其是在基础研究方面。他的公开评论常常与主流趋势相悖,特别是在大型语言模型的辩论中。他主张应开发那些使用更少数据且能耗显著更低的系统,这与“越大越好”的思维方式背道而驰。
LeCun在历史上的地位因发明卷积神经网络(CNNs)而得到巩固,这在计算机视觉中至关重要。今天,他是自监督学习和自主AI的主要倡导者——通过观察而非无尽的数据摄取来发展理解的机器。
他现在很少发布原创内容,但经常转发或链接到关于人工智能研究和系统设计的深入文章。
三十多年来,他的工作塑造了Meta的人工智能战略,旨在构建更接近人类推理方式的观察和思考系统,而不仅仅是预测序列中的下一个词。
安德烈·卡帕斯基将深厚的技术技能与曾成功推出重大产品的视角相结合。他以与研究人员和实践构建者都能共鸣的方式,阐述了从模型设计到训练选择和部署障碍等复杂思想。
他的观点将技术洞察与愿景相结合——例如,他最近提议大型语言模型正在成为现代软件的基石。
在2024年回到OpenAI后,Karpathy专注于使模型更易于管理,并在不失去控制的情况下进行扩展。他还致力于为开发者社区开放更多资源。在他的帖子中,他将深层次的技术思考与软件构建的日常工作联系起来,为工程师提供了在实际使用中保持系统稳定的实用方法。
李飞飞在将人工智能与人类需求对齐方面建立了她的声誉。她推动设计,旨在服务于医疗、教育和公共利益,正如它们服务于企业或政府议程一样。她主导了ImageNet的创建,这个项目重塑了深度学习,并在今天的人工智能上留下了最强烈的印记之一。
她的帖子关注人工智能的人性化——伦理影响、医疗保健影响以及维护人类尊严的重要性。
她引入了那些在科技领域常常被忽视的人群的观点——例如医疗工作者、教育工作者以及生活在残疾中的人们——并将他们的关注点保持在焦点上。李将负责任的人工智能视为一种同理心、远见和来自硅谷董事会之外的声音参与的问题。
Emad Mostaque 是开源生成 AI 的一个定义性人物。他推动模型和数据集的可获取性超越大型公司的控制,影响了一波初创公司发布具有开放权重的系统。
在他的动态中,他分享了关于开源生成式人工智能的生动更新以及对开发的公众反馈邀请。
Mostaque 定期分析构建高级模型的实际成本和限制,提供了对推动生成工具的预算和技术努力的罕见洞察。他对开放性的坚持改变了开发者和研究人员应该能够检查和控制的期望。
Timnit Gebru对算法偏见和数据透明度的研究改变了全球范围内关于人工智能公平性的讨论。她考察了在人工智能开发中谁拥有权力,以及这种权力如何塑造结果。
她利用自己的存在来突出偏见问题,常常提到她在人工智能公平性方面的研究或重大政策发展。
她的论点建立在明确的证据之上。她的研究揭示了训练数据中的缺陷如何导致与种族、性别和阶级相关的现实世界不平等的延续。立法者和监管机构在制定规则时现在引用她的研究,这使她成为这一对话中的重要批评声音。
Chris Olah 解密了神经网络中一些最复杂的部分。他对模型如何处理信息的视觉和叙述解释已成为大学的教学材料和人工智能安全研究者的参考点。
他经常发布可解释性更新——最近关于开源模型电路分析的工作引起了安全研究领域的关注。
通过使人工智能的内部工作可见,Olah将可解释性从一种学术好奇心转变为信任和安全的核心要求。他的影响塑造了实验室和政策制定者对监测和引导模型行为的思考方式。
Sara Hooker致力于提高机器学习的效率和可及性。她突出那些资源较少地区的研究人员,旨在去中心化谁能为该领域做出贡献。
她的帖子突出了人工智能研究中的包容性——她最近引起了人们对基于计算的监管局限性的关注。
她的工作质疑了严肃研究只能在庞大基础设施下进行的信念。通过促进高效架构和全球合作,Hooker 正在重新塑造人们对人工智能中性能和参与的期望。
伊桑·莫利克展示了人工智能工具如何改变人们的学习和工作方式。他在教室和商业环境中对大型语言模型的实验提供了具体、可复制的结果。
他的动态将人工智能引入真实的课堂和办公场景——探索提示设计和工作场所工具如何演变并影响学习。
Mollick通过亲自尝试工具,观察发生的事情,并在过程中调整他的方式来工作。这种实践循环为教育工作者和专业人士提供了一个将AI整合的蓝图,几乎不需要猜测。
达里奥·阿莫代领导着一个备受关注的人工智能安全项目。Anthropic对Claude的开发是其更大策略的一部分,旨在在不阻碍创新的情况下使扩展更加安全。
他很少发帖,但一旦发帖,他的观点就会引发争论——最近他指出了一个他所描述的扭曲Anthropic安全第一使命的叙述。
阿莫代的稳健风格和对控制机制的重视,使他的工作成为行业和政府在设定模型监管期望方面的参考点。
格雷迪·布奇的职业生涯围绕设计和管理复杂的软件系统而构建,这使得他对现代人工智能的构建和维护的观点尤为宝贵。几十年的系统设计经验使他能够强调持久的人工智能工程所需的条件。
他的声音结合了深厚的系统设计视角与人工智能的背景——虽然更新不那么频繁,但他为人工智能的辩论带来了架构上的清晰度。
最著名的是创建UML (统一建模语言),Booch将严格的架构思维应用于AI部署和可靠性的问题。
他警告说,过快的行动可能会破坏已经奠定的基础。在他看来,持久的进步来自于耐心的设计、严格的测试以及对强大工程实践的承诺。