2025年頂尖AI影響者:經過驗證的、受尊重的、被關注的

簡要

2025年,十位塑造人工智能未來的關鍵人物——從完善其核心設計的實驗室到設定其邊界的政策制定者。他們的理念、研究和領導力正在推動全球人工智能的構建、共享和使用發生真正的變化。

2025年頂級AI影響者:驗證、尊重、關注

這不是一個名人名單。這裏的每個人都有真實的影響力、明確的專業知識,以及在人工智能社區內引導討論的記錄。他們的觀點很重要,因爲它們來自於構建、指導和挑戰塑造我們未來的系統。

Yann LeCun仍然是人工智能領域最強有力的聲音之一,尤其是在基礎研究方面。他的公開評論常常與主流趨勢相悖,特別是在大型語言模型的辯論中。他主張應開發那些使用更少數據且能耗顯著更低的系統,這與“越大越好”的思維方式背道而馳。

LeCun在歷史上的地位因發明卷積神經網路(CNNs)而得到鞏固,這在計算機視覺中至關重要。今天,他是自監督學習和自主AI的主要倡導者——通過觀察而非無盡的數據攝取來發展理解的機器。

他現在很少發布原創內容,但經常轉發或連結到關於人工智能研究和系統設計的深入文章。

  • 核心主題:節能架構,面向對象學習,世界模型;
  • 覆蓋觀衆:900,000+ 關注者;
  • 值得注意的動態:與 OpenAI 和 DeepMind 的研究人員進行頻繁的技術交流;

三十多年來,他的工作塑造了Meta的人工智能戰略,旨在構建更接近人類推理方式的觀察和思考系統,而不僅僅是預測序列中的下一個詞。

安德烈·卡帕斯基將深厚的技術技能與曾成功推出重大產品的視角相結合。他以與研究人員和實踐構建者都能共鳴的方式,闡述了從模型設計到訓練選擇和部署障礙等復雜思想。

他的觀點將技術洞察與願景相結合——例如,他最近提議大型語言模型正在成爲現代軟件的基石。

  • 傳承:深度學習和計算機視覺的早期突破,特斯拉在人工智能領域的領導地位;
  • 覆蓋:超過100萬粉絲;
  • 參與:頻繁的會議演講和社區教育;

在2024年回到OpenAI後,Karpathy專注於使模型更易於管理,並在不失去控制的情況下進行擴展。他還致力於爲開發者社區開放更多資源。在他的帖子中,他將深層次的技術思考與軟件構建的日常工作聯繫起來,爲工程師提供了在實際使用中保持系統穩定的實用方法。

李飛飛在將人工智能與人類需求對齊方面建立了她的聲譽。她推動設計,旨在服務於醫療、教育和公共利益,正如它們服務於企業或政府議程一樣。她主導了ImageNet的創建,這個項目重塑了深度學習,並在今天的人工智能上留下了最強烈的印記之一。

她的帖子關注人工智能的人性化——倫理影響、醫療保健影響以及維護人類尊嚴的重要性。

  • 以此著稱:ImageNet,斯坦福大學人本中心人工智能研究所;
  • 受衆:500,000+ 關注者,向美國和國際政策制定者提供建議;
  • 當前重點:人工智能應用中的倫理、可及性和社會包容性;

她引入了那些在科技領域常常被忽視的人羣的觀點——例如醫療工作者、教育工作者以及生活在殘疾中的人們——並將他們的關注點保持在焦點上。李將負責任的人工智能視爲一種同理心、遠見和來自硅谷董事會之外的聲音參與的問題。

Emad Mostaque 是開源生成 AI 的一個定義性人物。他推動模型和數據集的可獲取性超越大型公司的控制,影響了一波初創公司發布具有開放權重的系統。

在他的動態中,他分享了關於開源生成式人工智能的生動更新以及對開發的公衆反饋邀請。

  • 裏程碑:穩定擴散的推出;
  • 關注領域:成本透明度、基礎設施開放性、人工智能安全原則;
  • 受衆:超過250,000名關注者;

Mostaque 定期分析構建高級模型的實際成本和限制,提供了對推動生成工具的預算和技術努力的罕見洞察。他對開放性的堅持改變了開發者和研究人員應該能夠檢查和控制的期望。

Timnit Gebru對算法偏見和數據透明度的研究改變了全球範圍內關於人工智能公平性的討論。她考察了在人工智能開發中誰擁有權力,以及這種權力如何塑造結果。

她利用自己的存在來突出偏見問題,常常提到她在人工智能公平性方面的研究或重大政策發展。

  • 關鍵領域:LLM中的系統性偏見、社區主導治理、倫理數據標準;
  • 受衆:超過160,000名關注者;在全球政策框架中被引用;

她的論點建立在明確的證據之上。她的研究揭示了訓練數據中的缺陷如何導致與種族、性別和階級相關的現實世界不平等的延續。立法者和監管機構在制定規則時現在引用她的研究,這使她成爲這一對話中的重要批評聲音。

Chris Olah 解密了神經網路中一些最復雜的部分。他對模型如何處理信息的視覺和敘述解釋已成爲大學的教學材料和人工智能安全研究者的參考點。

他經常發布可解釋性更新——最近關於開源模型電路分析的工作引起了安全研究領域的關注。

  • 專業:可解釋性工具,決策路徑可視化;
  • 受衆:150,000+ 關注者;
  • 最近工作:模型對齊、安全協議、憲法人工智能;

通過使人工智能的內部工作可見,Olah將可解釋性從一種學術好奇心轉變爲信任和安全的核心要求。他的影響塑造了實驗室和政策制定者對監測和引導模型行爲的思考方式。

Sara Hooker致力於提高機器學習的效率和可及性。她突出那些資源較少地區的研究人員,旨在去中心化誰能爲該領域做出貢獻。

她的帖子突出了人工智能研究中的包容性——她最近引起了人們對基於計算的監管局限性的關注。

  • 關鍵重點:稀疏模型、可重復性、包容性人工智能研究;
  • 受衆:45,000+ 關注者;

她的工作質疑了嚴肅研究只能在龐大基礎設施下進行的信念。通過促進高效架構和全球合作,Hooker 正在重新塑造人們對人工智能中性能和參與的期望。

伊桑·莫利克展示了人工智能工具如何改變人們的學習和工作方式。他在教室和商業環境中對大型語言模型的實驗提供了具體、可復制的結果。

他的動態將人工智能引入真實的課堂和辦公場景——探索提示設計和工作場所工具如何演變並影響學習。

  • 關注領域:應用LLMs、提示工程、AI輔助工作流程;
  • 受衆:280,000+ 關注者;

Mollick通過親自嘗試工具,觀察發生的事情,並在過程中調整他的方式來工作。這種實踐循環爲教育工作者和專業人士提供了一個將AI整合的藍圖,幾乎不需要猜測。

達裏奧·阿莫代領導着一個備受關注的人工智能安全項目。Anthropic對Claude的開發是其更大策略的一部分,旨在在不阻礙創新的情況下使擴展更加安全。

他很少發帖,但一旦發帖,他的觀點就會引發爭論——最近他指出了一個他所描述的扭曲Anthropic安全第一使命的敘述。

  • 重點:憲法人工智能、系統可靠性、大規模對齊;
  • 受衆:70,000+ 關注者;在立法聽證會和全球峯會上受到認可;

阿莫代的穩健風格和對控制機制的重視,使他的工作成爲行業和政府在設定模型監管期望方面的參考點。

格雷迪·布奇的職業生涯圍繞設計和管理復雜的軟件系統而構建,這使得他對現代人工智能的構建和維護的觀點尤爲寶貴。幾十年的系統設計經驗使他能夠強調持久的人工智能工程所需的條件。

他的聲音結合了深厚的系統設計視角與人工智能的背景——雖然更新不那麼頻繁,但他爲人工智能的辯論帶來了架構上的清晰度。

最著名的是創建UML (統一建模語言),Booch將嚴格的架構思維應用於AI部署和可靠性的問題。

  • 核心主題:系統設計、耐用性、工程倫理;
  • 受衆:160,000+ 名關注者,涵蓋人工智能和傳統工程社區;

他警告說,過快的行動可能會破壞已經奠定的基礎。在他看來,持久的進步來自於耐心的設計、嚴格的測試以及對強大工程實踐的承諾。

IN-2.7%
查看原文
此頁面可能包含第三方內容,僅供參考(非陳述或保證),不應被視為 Gate 認可其觀點表述,也不得被視為財務或專業建議。詳見聲明
  • 讚賞
  • 留言
  • 轉發
  • 分享
留言
0/400
暫無留言
交易,隨時隨地
qrCode
掃碼下載 Gate App
社群列表
繁體中文
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)