📢 Gate廣場獨家活動: #PUBLIC创作大赛# 正式開啓!
參與 Gate Launchpool 第 297 期 — PublicAI (PUBLIC),並在 Gate廣場發布你的原創內容,即有機會瓜分 4,000 枚 $PUBLIC 獎勵池!
🎨 活動時間
2025年8月18日 10:00 – 2025年8月22日 16:00 (UTC)
📌 參與方式
在 Gate廣場發布與 PublicAI (PUBLIC) 或當前 Launchpool 活動相關的原創內容
內容需不少於 100 字(可爲分析、教程、創意圖文、測評等)
添加話題: #PUBLIC创作大赛#
帖子需附帶 Launchpool 參與截圖(如質押記錄、領取頁面等)
🏆 獎勵設置(總計 4,000 枚 $PUBLIC)
🥇 一等獎(1名):1,500 $PUBLIC
🥈 二等獎(3名):每人 500 $PUBLIC
🥉 三等獎(5名):每人 200 $PUBLIC
📋 評選標準
內容質量(相關性、清晰度、創意性)
互動熱度(點讚、評論)
含有 Launchpool 參與截圖的帖子將優先考慮
📄 注意事項
所有內容須爲原創,嚴禁抄襲或虛假互動
獲獎用戶需完成 Gate廣場實名認證
Gate 保留本次活動的最終解釋權
2025年頂尖AI影響者:經過驗證的、受尊重的、被關注的
簡要
2025年,十位塑造人工智能未來的關鍵人物——從完善其核心設計的實驗室到設定其邊界的政策制定者。他們的理念、研究和領導力正在推動全球人工智能的構建、共享和使用發生真正的變化。
這不是一個名人名單。這裏的每個人都有真實的影響力、明確的專業知識,以及在人工智能社區內引導討論的記錄。他們的觀點很重要,因爲它們來自於構建、指導和挑戰塑造我們未來的系統。
Yann LeCun仍然是人工智能領域最強有力的聲音之一,尤其是在基礎研究方面。他的公開評論常常與主流趨勢相悖,特別是在大型語言模型的辯論中。他主張應開發那些使用更少數據且能耗顯著更低的系統,這與“越大越好”的思維方式背道而馳。
LeCun在歷史上的地位因發明卷積神經網路(CNNs)而得到鞏固,這在計算機視覺中至關重要。今天,他是自監督學習和自主AI的主要倡導者——通過觀察而非無盡的數據攝取來發展理解的機器。
他現在很少發布原創內容,但經常轉發或連結到關於人工智能研究和系統設計的深入文章。
三十多年來,他的工作塑造了Meta的人工智能戰略,旨在構建更接近人類推理方式的觀察和思考系統,而不僅僅是預測序列中的下一個詞。
安德烈·卡帕斯基將深厚的技術技能與曾成功推出重大產品的視角相結合。他以與研究人員和實踐構建者都能共鳴的方式,闡述了從模型設計到訓練選擇和部署障礙等復雜思想。
他的觀點將技術洞察與願景相結合——例如,他最近提議大型語言模型正在成爲現代軟件的基石。
在2024年回到OpenAI後,Karpathy專注於使模型更易於管理,並在不失去控制的情況下進行擴展。他還致力於爲開發者社區開放更多資源。在他的帖子中,他將深層次的技術思考與軟件構建的日常工作聯繫起來,爲工程師提供了在實際使用中保持系統穩定的實用方法。
李飛飛在將人工智能與人類需求對齊方面建立了她的聲譽。她推動設計,旨在服務於醫療、教育和公共利益,正如它們服務於企業或政府議程一樣。她主導了ImageNet的創建,這個項目重塑了深度學習,並在今天的人工智能上留下了最強烈的印記之一。
她的帖子關注人工智能的人性化——倫理影響、醫療保健影響以及維護人類尊嚴的重要性。
她引入了那些在科技領域常常被忽視的人羣的觀點——例如醫療工作者、教育工作者以及生活在殘疾中的人們——並將他們的關注點保持在焦點上。李將負責任的人工智能視爲一種同理心、遠見和來自硅谷董事會之外的聲音參與的問題。
Emad Mostaque 是開源生成 AI 的一個定義性人物。他推動模型和數據集的可獲取性超越大型公司的控制,影響了一波初創公司發布具有開放權重的系統。
在他的動態中,他分享了關於開源生成式人工智能的生動更新以及對開發的公衆反饋邀請。
Mostaque 定期分析構建高級模型的實際成本和限制,提供了對推動生成工具的預算和技術努力的罕見洞察。他對開放性的堅持改變了開發者和研究人員應該能夠檢查和控制的期望。
Timnit Gebru對算法偏見和數據透明度的研究改變了全球範圍內關於人工智能公平性的討論。她考察了在人工智能開發中誰擁有權力,以及這種權力如何塑造結果。
她利用自己的存在來突出偏見問題,常常提到她在人工智能公平性方面的研究或重大政策發展。
她的論點建立在明確的證據之上。她的研究揭示了訓練數據中的缺陷如何導致與種族、性別和階級相關的現實世界不平等的延續。立法者和監管機構在制定規則時現在引用她的研究,這使她成爲這一對話中的重要批評聲音。
Chris Olah 解密了神經網路中一些最復雜的部分。他對模型如何處理信息的視覺和敘述解釋已成爲大學的教學材料和人工智能安全研究者的參考點。
他經常發布可解釋性更新——最近關於開源模型電路分析的工作引起了安全研究領域的關注。
通過使人工智能的內部工作可見,Olah將可解釋性從一種學術好奇心轉變爲信任和安全的核心要求。他的影響塑造了實驗室和政策制定者對監測和引導模型行爲的思考方式。
Sara Hooker致力於提高機器學習的效率和可及性。她突出那些資源較少地區的研究人員,旨在去中心化誰能爲該領域做出貢獻。
她的帖子突出了人工智能研究中的包容性——她最近引起了人們對基於計算的監管局限性的關注。
她的工作質疑了嚴肅研究只能在龐大基礎設施下進行的信念。通過促進高效架構和全球合作,Hooker 正在重新塑造人們對人工智能中性能和參與的期望。
伊桑·莫利克展示了人工智能工具如何改變人們的學習和工作方式。他在教室和商業環境中對大型語言模型的實驗提供了具體、可復制的結果。
他的動態將人工智能引入真實的課堂和辦公場景——探索提示設計和工作場所工具如何演變並影響學習。
Mollick通過親自嘗試工具,觀察發生的事情,並在過程中調整他的方式來工作。這種實踐循環爲教育工作者和專業人士提供了一個將AI整合的藍圖,幾乎不需要猜測。
達裏奧·阿莫代領導着一個備受關注的人工智能安全項目。Anthropic對Claude的開發是其更大策略的一部分,旨在在不阻礙創新的情況下使擴展更加安全。
他很少發帖,但一旦發帖,他的觀點就會引發爭論——最近他指出了一個他所描述的扭曲Anthropic安全第一使命的敘述。
阿莫代的穩健風格和對控制機制的重視,使他的工作成爲行業和政府在設定模型監管期望方面的參考點。
格雷迪·布奇的職業生涯圍繞設計和管理復雜的軟件系統而構建,這使得他對現代人工智能的構建和維護的觀點尤爲寶貴。幾十年的系統設計經驗使他能夠強調持久的人工智能工程所需的條件。
他的聲音結合了深厚的系統設計視角與人工智能的背景——雖然更新不那麼頻繁,但他爲人工智能的辯論帶來了架構上的清晰度。
最著名的是創建UML (統一建模語言),Booch將嚴格的架構思維應用於AI部署和可靠性的問題。
他警告說,過快的行動可能會破壞已經奠定的基礎。在他看來,持久的進步來自於耐心的設計、嚴格的測試以及對強大工程實踐的承諾。