近日,美國創業加速器Y Combinator(YC)在舊金山舉辦首屆AI新創學校(AI Startup School)並邀請多位AI產業重量級人物出席,包括埃隆·馬斯克、OpenAI首席執行官奧特曼等。
前不久剛結束130天美國政府“政府效率部”(DOGE)特別僱員任期的馬斯克,在訪談中直言不諱地評價這段經歷如同一次“有趣的支線任務”,但其重要性在即將到來的AI革命面前相形見絀。他將政府效率部門的工作比作“清理海灘”,而即將到來的AI則是“千英尺高的海嘯”。
修復政府就像……海灘很髒,有針頭、糞便和垃圾。但接着還有一道千英尺高的水牆,那就是AI海嘯。如果一场千英尺高的海嘯即将袭来,清理海灘有多大意義?沒多大意義。
馬斯克預測數字超級智能可能在今年或明年到來,將比人類更聰明,同時未來人形機器人數量將遠超人類,可能達人類人口的5-10倍。他更是大膽預言AI驅動的經濟規模將是當前的數千倍甚至數百萬倍,人類智能佔比可能降至1%以下。以下爲其講話部分要點:
• 馬斯克宣佈已於5月28日離開DOGE,結束130天的政府特別僱員任期,稱“回到主線任務”;
• 馬斯克將政府效率部門工作比作“清理海灘”,而即將到來的AI則是“千英尺高的海嘯”,當後者即將到來時,相比之下前者意義不大;
• 預測數字超級智能可能在今年或明年到來,將比人類更聰明,他強調“今年不發生,明年肯定發生”;
• 未來人形機器人數量將遠超人類,數量可能是人類的5倍,甚至10倍;
• 預言AI驅動的經濟規模將是當前的數千倍甚至數百萬倍,推動文明邁向卡爾達肖夫II型(恆星能源級),人類智能佔比可能降至1%以下;
• 馬斯克強調“對真相的嚴謹堅持”是AI安全最重要的基石,強迫AI相信不真實之事極其危險;
• 回顧SpaceX早期,三連敗後第四次火箭發射成功是“生死一線”,2008年特斯拉融資在破產前最後一刻完成。
馬斯克在訪談中坦言,在華盛頓特區的經歷讓他深刻體會到“政治中的信號噪音糟糕透了”。他將在DC的工作描述爲“有趣的支線任務”,但最終決定“回到主線任務——構建技術,這是我喜歡做的事”。
這位億萬富翁解釋了自己離開政府職務的根本原因:“修復政府就像清理海灘——海灘很髒,有針頭、糞便和垃圾。但同時還有這堵千英尺高的水牆,這就是AI海嘯。如果你面临千英尺高的海嘯,清理海灘真的還有多重要呢?並沒有那麼重要。”
AI超級智能迫在眉睫:今年或明年必然到來馬斯克對數字超級智能的到來時間給出了極爲明確的預測。他表示:“我認爲我們已經非常接近數字超級智能了。如果今年不會發生,明年肯定會發生。”
他定義的“數字超級智能”是“在任何事情上都比任何人類都更聰明的智能”。馬斯克預測,AI將推動經濟規模實現指數級增長——“不是比當前經濟大10倍,而是數千倍,甚至數百萬倍”。
AI將如此深刻地改變未來,其程度難以估量……假設我們沒有誤入歧途,AI沒有消滅我們和它自己,那麼你最終將看到的不是一個比當前經濟大十倍的經濟。最終,如果我們……的後代(主要是機器後代)成爲卡爾達肖夫II型或更高級的文明,我們談論的將是一個比今天經濟大數千倍,甚至數百萬倍的經濟體。
他進一步闡述了人類智能在未來的地位:“在某個時刻,人類智能的百分比將變得相當小。在某個時刻,人類智能的集合總和將不到所有智能的1%。”
xAI目前正在訓練Grok 3.5馬斯克在採訪中透露,xAI目前正在訓練Grok 3.5,“重點關注推理能力”。
據ZeroHedge報道,xAI正尋求43億美元的股權融資,這將與50億美元的債務融資相結合,涵蓋xAI和社交媒體平臺X。
硬件競賽:從零到十萬GPU的工程奇蹟馬斯克用第一性原理思維解決了AI訓練的硬件挑戰。當供應商告訴他們需要18到24個月才能完成10萬個H100 GPU的訓練超級集羣時,馬斯克團隊將其壓縮到6個月。
他們租用了孟菲斯一家廢棄的Electrolux工廠,通過租賃發電機解決150兆瓦的電力需求,租用了美國四分之一的移動冷卻設備,並使用特斯拉Mega Packs來平滑訓練過程中的功率變化。馬斯克甚至親自參與佈線工作,“睡在數據中心裏”。
目前,該訓練中心擁有15萬個H100、5萬個H200和3萬個GB200,第二個數據中心即將上線11萬個GB200。
多重未來願景:機器人軍團與星際文明馬斯克預測,未來將有至少5倍於人類數量的人形機器人,“也許是10倍”。他坦言曾因擔心“讓終結者成爲現實”而在AI和機器人領域拖延,但最終意識到"無論我做不做,這都會發生。你要麼是觀衆,要麼是參與者。我寧願做參與者。”
在更宏大的願景中,馬斯克將人類文明置於卡爾達肖夫等級的框架下。他認爲人類目前只利用了地球1-2%的能源,距離一級文明還很遙遠。而成爲多行星物種是擴展意識到星際的關鍵步驟,“極大提高文明或意識的可能壽命”。
馬斯克表示,SpaceX計劃在大約30年內向火星轉移足夠的物質,使火星能夠自給自足,“即使來自地球的補給船停止運行,火星也能繼續發展繁榮”。
馬斯克(Elon Musk)
我們正處於智能大爆炸的非常非常早期階段。成爲多行星物種能極大地延長文明、意識或智能(無論是生物的還是數字的)可能的存續時間。我認爲我們非常接近數字超級智能了。如果今年沒實現,明年肯定能成。
YC首席執行官暨總裁Garry Tan
[音樂] 讓我們掌聲歡迎埃隆·馬斯克。[掌聲] 埃隆,歡迎來到AI創業學院。你今天能大駕光臨,我們真的、真的感到無比榮幸。從SpaceX、特斯拉、Neuralink、xAI等等說起。在你做這一切之前,你生命中有沒有某個時刻讓你覺得“我必須做出點偉大的東西”?是什麼讓你做出了這個決定?
馬斯克(Elon Musk)
我最初並不認爲自己能做出什麼偉大的東西。 我只是想嘗試做些有用的東西,但我不認爲我能做出什麼特別偉大的東西。如果你從概率上講,那似乎不太可能, 但我至少想試試看。
Garry Tan
你現在面對的是一屋子的人,他們都是技術工程師, 其中不乏一些冉冉升起的頂尖 AI 研究者。
馬斯克(Elon Musk)
好吧。我 我覺得我們應該...我更喜歡“工程師”這個詞,而不是“研究員”。我是說,如果有什麼基礎算法的突破,那算研究,但除此之外都是工程。
Garry Tan
也許我們可以從很久以前說起。我的意思是,你現在面對的是一屋子18到25歲的年輕人。 這裏更偏年輕化,因爲創始人羣體越來越年輕了。 你能設身處地想想他們嗎?當你18、19歲的時候,你知道,學習編程,甚至想出了Zip2的第一個點子。對你來說,那是什麼感覺?
馬斯克(Elon Musk)
是的,早在95年,我面臨一個選擇:要麼在斯坦福讀研究生、博士, 其實是材料科學方向,研究超級電容器,想用在電動車上,本質上是爲了解決電動車的續航問題; 要麼就投身於這個當時大多數人聞所未聞、叫做“互聯網”的東西。 我和我的教授談過,他是材料科學系的比爾·尼克斯(Bill Nix), 我說, 我能不能休學一個學期? 因爲這個(互聯網)很可能會失敗,然後我就得回學校繼續讀書。
然後他說,這可能是我們最後一次談話了。 他說對了。 所以,但我當時覺得事情大概率會失敗,而不是大概率會成功。 然後在95年,我寫了... 基本上,我認爲是第一個或接近第一個的互聯網地圖、路線指引、白頁和黃頁。
我就自己寫了那些代碼,我甚至沒用網頁服務器。我直接讀取端口,因爲我 負擔不起,也負擔不起一条T1專線。 最初的辦公室在帕洛阿爾託的謝爾曼大道(Sherman Avenue)。 樓下好像就有一家ISP(互聯網服務提供商)。所以我就往地板上鑽了個洞, 直接拉了根網線連到ISP。
然後 你知道, 我兄弟加入了我,還有另一位聯合創始人格雷格·庫裏(Greg Curry),他已經去世了。 我們當時連住的地方都負擔不起,所以我們就...辦公室每月租金500美元,我們就睡在辦公室裏,然後在佩奇米尔路的基督教青年会(YMCA)洗澡。 是的,我們最後算是做了一家有點用的公司, Zip2,在初期。 我們 我們确实开发了很多 非常非常棒的軟件技術,但我們某种程度上被传统媒体公司“俘獲”了,因爲像奈特-裏德報業(Knight-Ridder)、紐約時報(New York Times)這些公司既是投資者,又是客戶,也在董事會里。
所以他們總是想把我們的軟件用在毫無意義的地方。 所以我想直接面向消費者。總之,Zip2的事就不細說了,但核心是我真的只是想在網上做點有用的事。 因爲我就兩個選擇:要麼讀博士,看着別人建設互聯網;要麼以某種微小的方式參與建設互聯網。我當時想, 我猜我總可以先嚐試,失敗了再回去讀研。 不管怎樣,結果算是相當成功吧。賣了大概3億美元,
這在當時是很大一筆錢。現在嘛,我覺得一家AI初創公司的最低起拍價都得10億美元了。 這就像...現在有太多該死的獨角獸公司了,簡直像一羣獨角獸,你知道的,獨角獸是指估值十億的情況。
Garry Tan
從那以後通貨膨脹了,所以實際上錢貶值了不少。
馬斯克
是的。我是說,在1995年,你大概花5美分就能買個漢堡?好吧,沒那麼誇張,但我是說,是的,確實發生了很多通脹。 但 我是說,現在AI的熱度是是相當高,就像你看到的。 你知道,你會看到有些公司,成立還不到一年,有時就能獲得十億甚至幾十億美元的估值。 我猜其中一些可能會成功,可能也確實會成功。 但 看到其中一些估值確實讓人瞠目結舌。 是的,你怎麼看?我是說,
Garry Tan
我個人非常看好。我其實非常樂觀。所以,我認爲在座的各位將會創造大量的價值,這些價值 你知道,全球應該有十億人都在使用這些東西。 我們現在甚至還沒觸及表面。我很喜歡那個互聯網的故事, 即使在那個時候,你也很像在座的各位,因爲你知道,所有傳統媒體公司的CEO們都把你視爲那個懂互聯網的人。而現在,對於那個不理解AI正在發生什麼的廣闊世界——那個企業界,或者說整個世界——他們將會指望在座的各位,理由完全一樣。聽起來你似乎知道...有哪些切實的教訓?聽起來其中之一是不要放棄董事會控制權,或者要非常小心,得有個真正的好律師。
馬斯克
我想我第一家初創公司最大的錯誤就是讓傳統媒體公司掌握了太多 股東和董事會控制權,這必然導致他們從傳統媒體的視角看問題, 於是他們會讓你做一些對他們來說似乎合理,但用新技術來看其實根本不合理的事情。 我應該指出,我 我最初其實並沒打算開公司。我...我試過去網景(Netscape)找工作。 我把簡歷投給了網景。 馬克·安德森(Mark Andreessen)知道這事。
但我認爲他根本沒看到我的簡歷,然後沒人回應。所以 之後我試着在網景的大廳裏晃悠,看能不能“偶遇”誰,但我太害羞了,不敢跟任何人說話。所以我就想,天啊,這太荒謬了。那我就自己寫軟件,看看會怎樣吧。所以,這其實並不是出於“我想開公司”的立場。我只是想參與建設,你知道的,互聯網的某個部分。 既然我在互聯網公司找不到工作,那我就得創辦一家互聯網公司。總之,是的。是的。我是說,AI將深刻改變未來。其程度難以估量, 但你知道 經濟呢,假設我們不走彎路,
並且 AI沒有把我們和它自己都幹掉, 那麼你最終會看到一個不是比當前經濟規模大10倍的經濟,最終,如果我們成爲比如說,或者不管我們的未來機器後代是什麼,或者說主要是機器後代,成爲卡爾達肖夫等級(Kardashev Scale)2級或更高級的文明。那我們談論的經濟規模將是今天的數千倍,也許是數百萬倍。所以, 是的,我是說,我我當時確實有點感覺,你知道,當我在華盛頓特區時,
因爲要清除浪費和欺詐而備受抨擊,那算是個有趣的支線任務吧, 就支線任務而言。 但是 得回到主線任務上來了。是的,我得回到這裏的主線任務上來了。嗯 但我確實感覺到,你知道,有點像是...這就好比政府改革有點像...好比海灘很髒,有針頭、糞便和垃圾,你想清理海灘,但與此同時還有一道一千英尺高的水牆——那就是AI海嘯—— 如果一千英尺的海嘯就要袭来,清理海灘還真的有多大意義嗎?意義不大。哦,很高興你回到主線任務上了。這非常重要。
是的,回到主線任務。 建造技術,這是 我喜歡做的事。 干擾太多了。政治的信號噪音比太糟糕了。
Garry Tan
所以, 我是說,我住在舊金山,所以你不用跟我說兩遍(我也懂)。
馬斯克
是的,華盛頓特區就像是,你知道的,我猜整個華盛頓都是政治,但 如果你試圖建造火箭或汽車,或者你試圖讓軟件能可靠地編譯和運行,那麼你必須 最大程度地追求真相,否則你的軟件或硬件就無法工作。 就像你不能欺騙數學, 數學和物理是嚴苛的裁判。 所以我習慣於待在那種最大程度追求真相的環境中,而這肯定不是政治。 所以不管怎樣,我很高興回到,你知道的,科技領域。我想我
Garry Tan
有點好奇,回到Zip2那個時刻。你當時有幾億美元,或者說你套現了幾億美元?
馬斯克
我是說,我拿到了2000萬,對吧?
Garry Tan
好吧。所以,你至少解決了錢的問題。 然後你基本上拿着它繼續賭下去,你繼續參與了X.com,後來變成了PayPal和Confinity(合併)。
馬斯克
是的。我把籌碼留在了賭桌上。
Garry Tan
不是每個人都會這麼做。在座的很多人將來也得做這個決定。是什麼驅使您再次投入戰鬥?
馬斯克
我覺得對於Zip2,我們開發了非常棒的技術,但從未真正得到充分利用。至少在我看來,我們的技術比雅虎(Yahoo)或其他任何人都好,但被我們的客戶(媒體公司)限制了。所以我想做點不受客戶約束的事,直接面向消費者。這就是後來的X.com/Paypal。本質上是X.com與Confinity合併,我們一起創建了Paypal。
然後,實際上Paypal的“校友網絡”(Paypal Mafia)可能創造了比21世紀其他任何公司都多的公司。Infinity和X.com合併時,聚集了那麼多有才華的人。我只是想...我覺得在Zip2我們有點被束縛了手腳,我就想,好吧,如果我們不被束縛,直接面向消費者會怎樣?結果就是這樣。
但是,是的,拿到Zip2那2000萬美元支票時(指個人所得),我當時和四個室友合住,銀行裏大概只有一萬塊存款。然後這張支票居然是通過郵件寄來的(太不可思議了)。通過郵件寄來!然後我的銀行餘額一下子從一萬變成了兩千零一萬(2000萬 + 1萬)。我就想, 好吧(還要扣稅什麼的)。但我後來幾乎把所有的錢都投進了X.com。就像你說的,幾乎把所有籌碼都留在了賭桌上。
是的,PayPal之後,我就想, 我有點好奇爲什麼我們還沒派人去火星。 我去了NASA網站想找我們什麼時候派人去火星,結果沒有日期。我以爲可能是網站太難找了。 但事實上,根本沒有送人去火星的真正計劃。於是, 你知道,這說來話長,我不想在這裏佔用太多時間,但
Garry Tan
我想我們都聽得全神貫注。
馬斯克
所以,所以當時我其實在長島高速公路上(Long Island Expressway)和我朋友阿德奧·羅西(Adeo Ressi)在一起。 我們在大學是同學(賓夕法尼亞大學), 阿德奧問我PayPal之後打算做什麼,我說, 我不知道,我猜也許我想在太空領域做點公益項目吧,因爲我不認爲我能在太空領域做任何商業性的東西,那看起來是國家的專屬領域。 所以 但你知道我很好奇我們什麼時候送人去火星, 就是那時我發現,哦,網站上沒有,我開始深挖。 我肯定這裏省略了很多,但 我我 我最初的想法是做一個叫“火星生命”(Life to Mars)的火星慈善任務,就是送一個帶種子和脫水營養凝膠的小型溫室到火星,在火星上着陸,然後你知道的,給凝膠加水,然後你就有了這個絕妙的鏡頭——紅色背景上的綠色植物。
順便說一句,很長一段時間我都沒意識到“money shot”我想是個色情片的梗(指關鍵的高潮鏡頭)。但, 總之,重點是那將是紅色背景上綠色植物的絕妙鏡頭,試圖以此激勵 你知道的,NASA和公衆派宇航員去火星。隨着我瞭解更多,我意識到哦,順便說一下,在這個過程中,我在2001和2002年左右去了俄羅斯買洲際彈道導彈(ICBMs),這就像一次冒險。你知道的,你去見俄羅斯高層指揮官,說“我想買些洲際彈道導彈”。 這是爲了進入太空。是的。不是爲了 不是爲了炸谁,但他們必須 作爲裁軍談判的結果,他們必須銷燬一大批他們的大型核導彈。所以我就想,好吧,我們拿兩枚,你知道的,去掉核彈頭, 再加一個額外的上面級用於火星。
但這感覺有點迷幻,你知道的,2001年左右在莫斯科,和俄羅斯軍方談判買洲際彈道導彈。這太瘋狂了。 但他們也一直給我擡價,所以 這簡直和正常的談判反着來。所以我就想,天啊,這些東西變得真貴。
然後我意識到,真正的問題並不是缺乏去火星的意願,而是根本沒有辦法在不超出預算的情況下做到,你知道的,甚至連NASA的預算都負擔不起。所以這就是我決定創辦SpaceX的原因——SpaceX是爲了 推進火箭技術,達到我們能送人去火星的水平。 那是在2002年。
Garry Tan
所以那並不是 你一開始就 想創立一家企業。你只是想開始做點你覺得有趣、人類需要的東西,然後就像,你知道的,像貓扯線團一樣,球就慢慢解開了,結果這可能是門非常賺錢的生意。
馬斯克
現在確實賺錢,但之前沒有火箭初創公司成功的先例,雖然有過一些商業火箭公司的嘗試,但都失敗了。所以 SpaceX創辦SpaceX時, 真的是出於這樣一種想法:我覺得成功的幾率不到10%,也許只有1%,我不知道。 但 但但一家初創公司如果不做點什麼來推進 火箭技術,那它肯定不是來自那些大型國防承包商,因爲他們只是政府的附庸,而政府只想做非常常規的事情。所以, 要麼來自初創公司,要麼就根本不會發生。所以,所以即使成功率很小也比沒機會好, 所以是的,SpaceX 我在2002年年中創辦它時,預期會失敗。我就像我說的,大概90%的失敗率,甚至招募人時,我也沒試圖粉飾說它會成功。
我說我們很可能會完蛋。 但 有1/10的機會可能不會完蛋,如果 但這是送人去火星、推進技術水平的唯一途徑。 然後 我最終成了火箭的總工程師, 不是因爲我想要,而是因爲我僱不到厲害的人。所以, 沒有優秀的資深工程師願意加入,因爲他們覺得這太冒險了,你會完蛋的。 所以我就成了火箭的總工程師。你知道,頭三次發射確實失敗了。所以那算是個學習過程吧。 第四次很幸運成功了。但如果第四次沒成功 我就沒錢了,那就徹底完了。所以那是非常懸的事。
如果第四次獵鷹(Falcon)發射失敗,那就徹底完了,我們就加入之前那些火箭初創公司的墓地了。所以, 我對成功幾率的估計不算太離譜。 我們只是險之又險地成功了。 特斯拉差不多是同時進行的。 2008年是艱難的一年。 因爲在2008年年中 或者叫2008年夏天 SpaceX的第三次發射失敗了,我們連續三次失敗。 特斯拉的融資輪也失敗了。所以特斯拉很快就破產了。 這就像,天啊,這太慘了。 這這將成爲傲慢自大的警世故事。
Garry Tan 20:00可能在那段時間裏,很多人都在說,埃隆是個搞軟件的,爲什麼你要做硬件?爲什麼...是的,他爲什麼要选择做这个,對吧?
馬斯克
是的。100%。所以你可以看看當時的媒體, 因爲那時的報道現在還能在網上找到。他們一直叫我“互聯網小子”(internet guy)。 所以“互聯網小子”又名“傻瓜”試圖造火箭公司。 所以 你知道 我們被嘲笑了很多。 這聽起來確實很荒謬,互聯網小子开火箭公司听起来就不像能成功的配方
老實說。所以我不怪他們。我當時想,是啊,你知道,聽起來確實不太可能,我也同意這不太可能。 但幸運的是第四次發射成功了, 然後NASA授予了我們一份補給空間站的合同。 我想那大概是12月22號左右,或者是聖誕節前。 因爲即使第四次發射成功也不足以保證成功。我們還需要一份大合同才能活下去。所以, 所以我接到了NASA團隊的電話,他們真的說了,我們授予你們一份補給空間站的合同。我簡直...我脫口而出,“我愛你們。”這通常不是,你知道的,他們能聽到的話。
因爲通常都是很,你知道的,很冷靜的,但我當時想,“天啊,這救了公司。”然後, 我們關閉特斯拉融資輪是在它可能完成的最後一天、最後一個小時,就是2008年12月24日下午6點。 如果那輪融資沒關閉,聖誕節後兩天我們就得拖欠工資了。所以2008年底真是讓人神經緊繃。
Garry Tan 22:03我想從您的Paypal和Zip2經歷,到跳進這些硬核的硬件初創公司,貫穿始終的一點是能夠找到並最終吸引這些特定領域裏最聰明的人...你知道,那 我是說在座的各位, 有些人甚至還沒管理過一個人。他們纔剛剛開始職業生涯。你會對,你知道的,那個還從未做過這些事的埃隆說些什麼?
馬斯克 22:33
我通常認爲要嘗試儘可能做有用的事。這這聽起來可能有點陳詞濫調,但做有用的事真的很難,尤其是對很多人有用。 比如說,總效用的曲線下面積,就是你對你同胞有多大用處乘以多少人? 就像物理上對“真實功”(true work)的定義。做到這點極其困難。而我認爲如果你立志做“真實功”, 你你成功的幾率會高得多。 就像,別追求榮耀,要追求做功。
Garry Tan 23:07
你怎麼判斷那是“真實功”?是靠外部反饋嗎?比如別人怎麼看或者你知道產品對人有什麼用?
馬斯克 23:23
就像你知道,對你來說,當你找人工作時,你看重什麼?比如你知道,你找人或他們 那是不同的問題。我想是 我是說就你的最終產品而言,你只要說, 如果這東西成功了,它將對多少人有多大用處? 這就是我的意思。然後你你做任何事,你知道的,無論你是CEO還是初創公司裏的任何角色,你做任何需要做的事來成功,就像 並且要不斷粉碎你的自我(ego),就像, 內化責任(internalize responsibility)。 一個主要的失敗模式就是當自我與能力之比(ego to ability ratio) 大於1的時候。你知道 如果你如果你的自我能力比太高,
那你基本上就切斷了通向現實的反饋迴路。 用AI術語來說,你你會打破你的強化學習(RL)迴路。所以,你不想打破你的迴路,你想要一個強大的RL迴路,這意味着內化責任(internalizing responsibility)並最小化自我(minimizing ego),無論任務是崇高還是卑微,你都去做。所以,我是說,這就是爲什麼我其實更喜歡“工程”(engineering)這個詞,而不是“研究”(research)。我更喜欢這個詞,而且我不想叫xAI一個實驗室(lab)。
我只想它是一家公司。 就像,無論 無論是最简单、 最直接、 理想情況下最低自我(ego)的術語,這些通常都是好的方向。 你你只想緊密地閉合與現實的迴路(close the loop on reality hard)。 這這這是件超級大事。
Garry Tan 25:01我想在座各位都非常欽佩您在運用第一性原理(First principles)方面的典範作用。您是怎麼確定自己的“現實”的?這似乎是其中很重要的一部分。那些從未創造過任何東西、非工程師的人,比如某些記者,他們有時會批評您。但顯然您身邊還有另一羣人,他們是建造者,有着非常高的...功業曲線下面積(指成就巨大)。人們該如何看待這點?哪些方法對您有效?您會如何傳遞給...比如說您的孩子們?您會怎麼告訴他們在這個世界立足的方法?比如,如何基于第一性原理构建一个可预测的現實观。
馬斯克 25:57
物理學的工具在 理解任何領域並取得進展方面都極其有用。 第一性原理顯然是指,你知道的,將事物分解到最可能正確的基本公理要素(fundamental axiomatic elements),然後儘可能邏輯清晰地向上推理,而不是通過分析或類比來推理。 然後就是一些簡單的事,比如極限思維(thinking in the limit),就像如果你外推 最小化這個東西或最大化那個東西,極限思維非常有幫助。 我使用物理學的所有工具。
它們適用於任何領域。 這就像一種超能力。 所以你可以拿,比如說火箭。你可以說, 一枚火箭應該花多少錢? 人們通常採用的方法會看歷史上火箭的成本是多少,然後假設任何新火箭的成本必須和以前的火箭成本差不多。而第一性原理的方法是,你你看火箭由哪些材料構成。如果是鋁, 銅,碳纖維, 鋼,無論是什麼, 然後說這枚火箭有多重, 它的組成元素是什麼?它們有多重?這些組成元素每公斤的材料價格是多少?這就設定了火箭成本的真正底線。它可以漸進地接近原材料的成本。
然後你意識到,哦,實際上一枚火箭的原材料只佔歷史火箭成本的1%或2%。所以製造過程必然是非常低效的, 如果 如果原材料成本只有1%或2%的話。這就是對火箭成本優化潛力的第一性原理分析。而這還是在考慮可重用性之前。 舉一個AI方面的例子,我猜 去年,當xAI試圖建造一個訓練超級集羣(training supercluster)時, 我們我們去找各家供應商,說(這是去年初的事)我們需要10萬塊H100(GPU)來進行連貫訓練(train coherently)。
他們估計完成這個需要18到24個月。我說, 我們需要在6個月内完成。 否則我們就沒競爭力了。所以然後 如果你把它分解,需要什麼? 你需要一棟建築,你需要電力,你需要冷卻。 我們沒時間從零開始建一棟樓。所以我們必須找一個現成的建築。於是,我們找到了孟菲斯一個廢棄的工廠,以前是生產伊萊克斯(Electrolux)產品的。 但它的輸入功率是15兆瓦,而我們需要150兆瓦。
所以, 我們我們 租了發電機,把它們放在大樓的一側,然後我們需要冷卻。所以,我們租用了美國大約四分之一的移動冷卻能力,把 冷卻器(chillers)放在大樓的另一側。 這還沒完全解決問題,因爲在訓練過程中功率波動 非常大。所以功率可能在100毫秒內下降50%,發電機跟不上。於是我們結合 我們增加了特斯拉Megapacks(大型電池組),並修改了Megapacks的軟件,使其能夠平滑訓練過程中的功率波動。 然後還有一大堆網絡挑戰。 因爲如果你試圖讓10萬塊GPU進行連貫訓練,網絡線纜非常非常有挑戰性。
Garry Tan 29:48
...聽起來您提到的幾乎任何一件事,我都能想象有人會直接告訴您“不行,你搞不到那個電力”,“你搞不定這個”。第一性原理思維的一個關鍵點似乎是:我們要問“爲什麼”,要弄清楚原因,並且要挑戰對面的人。如果他們給出的答案我不滿意,我就不會接受它。是這樣嗎?我覺得,如果有人想像您一樣做硬件,似乎尤其需要這點。而在軟件領域,我們有很多冗餘,比如“我們可以加更多CPU,沒問題的”。但在硬件上,行不通就是行不通。
馬斯克 30:37
我認爲這些第一性原理思維的通用原則適用於軟件和硬件,也適用於任何事物。 我只是用了一個硬件方面的例子 說明我們如何被告知某事不可能,但一旦我們將其分解成組成要素——我們需要一棟建築,我們需要電力,我們需要冷卻,我們需要 我們需要功率平滑(power smoothing)——然後我們就能解決這些組成要素。 但它是...然後我們 我們讓網絡運營團隊 進行所有的佈線工作,所有事 四班倒24/7, 我也睡在數據中心,還親自佈線。
還有很多其他問題要解決。 你知道去年沒人用10萬塊 H100進行過連貫訓練。也許今年有人做了。我不知道。 然後然後我們後來把它翻倍 到了20萬塊。所以現在我們我們在孟菲斯的訓練中心有15萬塊H100,5萬塊H200,和3萬塊GB200。 我們即將在孟菲斯地區的第二個數據中心上線11萬塊GB200。
Garry Tan 31:54您是否認爲預訓練(Pre-training)仍然有效?縮放定律(Scaling laws)仍然成立?最終贏得這場競賽的人將擁有最大、最智能的模型,然後可以蒸餾(Distill)它?
馬斯克 32:09
除了大型AI的競爭力之外,還有其他各種因素 對於大型AI來說, 人員的才華當然重要。 硬件的規模以及你如何有效利用這些硬件也很重要。所以你不能只是訂購一大堆GPU,然後它們 你不能只是插上電就行。所以你得弄到很多GPU,並讓它們 能穩定地進行連貫訓練。
然後就是,你有什麼獨特的數據來源?我猜分發(distribution)在某種程度上也很重要,比如人們如何接觸到你的AI?對於那些要成爲有競爭力的大型基礎模型(large foundation model)來說,這些都是關鍵因素。 就像 就像我朋友伊利亞(Ilya Sutskever)說的,我認爲 你知道我們差不多用光了人類生成的數據進行預訓練, 高質量標記(tokens)的供應枯竭得相當快, 然後你你必須做很多 你需要本質上創造合成數據(synthetic data) 並且能夠準確判斷你創造的合成數據,以驗證它是否是真實的合成數據,還是與事實不符的幻覺(hallucination)。 所以實現與現實接軌(grounding in reality)是是很棘手的,但我們正處於需要投入更多精力在合成數據上的階段。 就像現在我們正在訓練Grok 3.5,其重點是推理(reasoning)。
Garry Tan 33:55回到您的物理學觀點,我聽說硬科學,尤其是物理教科書,對推理非常有用。而研究人員告訴我,社會科學對推理完全沒用。
馬斯克 34:11
是的,這可能是真的。 所以是的 你知道未來非常重要的一點是 將深度AI 在數據中心或超級集羣中與機器人技術(robotics)結合。
這樣 你知道像Optimus人形机器人這樣的东西 是的Optimus太棒了。將來會有非常多人形機器人以及各種大小形狀的機器人,但我的預測是人形機器人將遠超其他所有機器人總和,可能多一個數量級,差異巨大。
Garry Tan 34:55有傳言說您計劃組建一支機器人軍隊?
馬斯克 35:01
無論是我們做,還是 還是特斯拉做,你知道的,特斯拉和xAI合作緊密。
就像你見過多少家人形機器人初創公司?就像我想黃仁勳(Jensen Huang)在臺上帶了一大堆機器人, 來自不同公司的機器人。我想有大概十幾種不同的人形機器人。所以,我是說,我猜,你知道的,部分我一直以來在抗爭的、也許拖慢我腳步的是,我是個有點 我不想我不想讓終結者(Terminator)成真,你知道的。所以,我某種程度上, 至少直到最近幾年,在AI和和類人機器人(humanoid robotics)上拖拖拉拉。然後我有點意識到,它它正在發生,無論我做不做。所以,你只有兩個選擇。參與你既可以當觀衆(spectator),也可以當參與者(participant)。所以,就像,好吧,我寧願當參與者而不是觀衆。 所以現在就是你知道的,在人形機器人和呃數字超級智能(digital super intelligence)上全力加速(pedal to the metal)了。
Garry Tan 36:10
我想,還有第三件事大家聽您談過很多,我個人非常贊同,就是成爲多行星物種(Multiplanetary species)。這如何融入整體?這不僅僅是10年或20年的事,也許是100年的事,是關乎人類好幾代人的事。您如何看待它?這裏有AI,顯然有具身機器人(Embodied robotics),還有成爲多行星物種。這些最終是否都服務於最後一點?或者,您現在驅動未來10年、20年、100年的動力是什麼?
馬斯克 36:46
天啊,100年,老兄。我希望100年後文明還在。如果它還在,那會和今天的文明截然不同。 我是說,我預測人形機器人至少會是人類數量的5倍,也許是10倍。 而看待文明進步的一種方式是卡爾達肖夫等級(Kardashev Scale)的完成百分比。所以,如果你是,你知道的,等級一(Scale one),你 你已經駕馭了一顆行星的所有能量。現在在我看來,我們只 利用了地球能量的1%或2%。 所以我们离卡尔达肖夫等級一还有很长的路要走。 然後等級二(Scale two)是駕馭一顆恆星的所有能量。 那將是地球能量的大概十億倍,也許接近萬億倍。
然後等級三(Scale three)是整個星系的能量,離那還遠着呢。所以我們正處於智能大爆炸(intelligence big bang)的非常非常早期階段。我我希望我們在就多星球而言,我想我想大約30年內,我們會有足夠的物質轉移到火星,使火星能夠自我維持(self-sustaining),即使來自地球的補給船停止,火星也能繼續成長繁榮。 這極大地延長了文明、或意識、或智能(包括生物的和數字的)的預期壽命。 所以這就是爲什麼我認爲成爲多星球物種很重要。
我有點困擾於費米悖論(Fermi Paradox),就像爲什麼我們沒看到任何外星人?這可能是因爲智能非常稀有。 也許我們是這個星系裏唯一的智慧生命。 那樣的話,意識智能就像無邊黑暗中的微小燭光,我們應該盡一切可能確保這微小的燭光不熄滅,而成爲多星球物種或讓意識多星球化(making consciousness multilanetary)能極大提高文明的預期壽命,並且它是在前往其他恆星系之前的下一個步驟。 一旦你至少擁有兩個星球,你就有了一個推動太空旅行進步的強制力(forcing function)。 那最終將導致 意識擴展到星辰大海(expanding to the stars)。
Garry Tan 39:24費米悖論可能暗示,一旦科技達到某個水平,文明就會自我毀滅。我們如何避免自我毀滅?您會給滿屋子的工程師什麼建議?我們能做些什麼來防止這種情況發生?
馬斯克 39:41
是的,如何避開“大過濾器”(Great Filters)?一个明显的大過濾器就是全球热核战争。所以我們應該儘量避免。
我想建造良性的AI機器人,那種熱愛人類的AI, 你知道的,乐于助人的機器人。 我認爲在構建AI中極其重要的一點是,對真相(truth)非常嚴格的恪守,即使那真相在政治上不正確(politically incorrect)。 我對什麼會讓AI變得非常危險的直覺是,如果 如果你強迫AI相信不真實的事情。
Garry Tan 40:27您如何看待安全(Safety)與封閉(Closed)以獲得競爭優勢之間的爭論?我覺得很棒的一點是,您有一個有競爭力的模型,其他人也有。從這個意義上說,我們可能避開了我最擔心的最糟糕的時間線(Timeline)——那種快速起飛(Fast takeoff)且只掌握在一個人手中的情況。那可能會導致很多事情崩潰。而現在我們有選擇,這很好。您怎麼看?
馬斯克 40:58
是的,我確實認爲將會有幾個深度智能(deep intelligences),也許至少有五個。 可能多達10個。 我不确定会不会有几百個,但可能接近,比如說10個左右。 其中大概四個在美国。 所以我不认为会有任何一個AI擁有失控的能力(runaway capability)。 但是的,会有几個深度智能。
Garry Tan 41:40這些深度智能體會做什麼?是做科學研究,還是試圖互相攻擊?
馬斯克 41:48可能都是。 我是說希望它們會發現新物理學,我認爲它們肯定會發明新技術。 就像我認爲我認爲我們離數字超級智能(digital super intelligence)相當近了。它可能今年發生,如果今年沒發生,明年肯定能實現,數字超級智能定義爲在任何事情上都比任何人類都聰明(smarter than any human at anything)。
Garry Tan 42:19那麼,我們如何將其引導向超級豐饒(Super abundance)?我們可以擁有機器人勞動力、廉價能源、按需智能(Intelligence on demand)。這是否就是所謂的“白色藥丸”(White pill,指積極樂觀的未來)?您在這個光譜上處於什麼位置?您會鼓勵在座各位做哪些具體的事情,來讓這個“白色藥丸”成爲現實?
馬斯克 42:43
我認爲最可能是一個好結果。 我猜我某種程度上同意傑夫·辛頓(Jeff Hinton)的看法,也許有10%到20%的毀滅(annihilation)幾率。 但往好的方面看,那就是80%到90%獲得美好結局的概率。 所以是的,我再怎麼強調也不爲過。對真相(truth)的嚴格恪守是AI安全(AI safety)最重要的事。顯然還有對人類和已知生命(life as we know it)的共情(empathy)。
Garry Tan 43:18我們還沒談到Neuralink。我很好奇,您正在努力縮小人與機器之間的輸入輸出(Input/Output)差距。這對AGI/ASI(人工通用智能/人工超級智能)有多關鍵?一旦這個鏈接建立,我們是否不僅能讀取(Read),還能寫入(Write)?
馬斯克 43:38
Neuralink對於解決數字超級智能並非必需。 在神經連接大規模應用前,它(ASI)就會發生。 但 神經連接能有效解決 輸入輸出帶寬限制(input output bandwidth constraints)。特別是我們的輸出帶寬(output bandwidth)非常低。人類一天內的持續輸出(sustained output)低於每秒1比特(less than one bit per second)。所以,你知道的,一天有86400秒。 一個人一天輸出的符號(symbols)超過那個數(86400個)是極其罕見的。 連續幾天更是如此。 所以有了 有了神經連接接口,你可以大幅提高你的輸出帶寬和輸入帶寬(input bandwidth)。 輸入是指寫入(write operations)大腦。
我們現在有五位人類植入了 那種讀取 輸入的設備,它能讀取信號。你有患有肌萎縮側索硬化症(ALS)的人,他們 完全沒有(行動能力),他們是四肢瘫痪者(tetroplegics),但他們现在能以 與擁有健全身體的人相當的帶寬交流, 控制他們的电脑和手机, 這相當酷。然後 我想在未來6到12個月,我們將進行第一次視覺植入(implants for vision),即使有人完全失明, 我們也能直接寫入 視覺皮層(visual cortex) 我們已經在猴子身上實現了。
我想我們有一隻猴子植入視覺設備已經三年了, 起初分辨率會相對較低,但長期來看會有非常高分辨率,並能看到多光譜波長(multispectral wavelengths)。所以 你可以看到紅外線、紫外線、雷達(radar),就像獲得超能力一樣。 在某個時刻,賽博格植入物(cybernetic implants)將不僅僅是糾正出錯的東西,而是 極大地增強(augmenting)人類的能力,極大地增強智能、感官和帶寬 这这将会在某個時刻发生。
但數字超級智能會在此很久之前發生,至少如果我們有 一個神經連接,我們或許能更好地欣賞 AI。我猜所有你努力的制約因素之一,跨越所有這些不同領域,是接觸最聰明人才的機會。 是的。但,你知道的,與此同時我們有,你知道的,石頭(rocks)能說話和推理(talk and reason), 它們現在可能130智商了,而且可能很快就會超級智能。 你如何調和這兩件事?比如,你知道5年、10年後會發生什麼?在座的各位該做什麼 來確保,你知道的,他們是創造者(creating)而不是可能低於API線(below the API line)的人?
人們稱它爲奇點(singularity)是有原因的,因爲我們不知道不久的未來會發生什麼。人類智能所佔的比例將會很小。在某個時刻,人類智能的總和將少於所有智能的1%。 而如果事情發展到卡爾達肖夫等級二(Kardashev Scale level two) 我們談論的是人類智能,即使假設人口顯著增長,並且智能大幅增強(intelligence augmentation),就像 每個人的智商都達到一千的那種情況。 即使那樣, 人類智能總和可能也只有數字智能的十億分之一(1 billionth)。無論如何,數字超級智能的生物引導程序(biological bootloader)在哪裏?我想就此結束吧,我算是好的引導程序嗎?
Garry Tan 47:46
我們該何去何從?我們如何從這裏出發?我是說,所有這些都是相當狂野的科幻情節,但也可能由在座的各位建造出來。你知道的,如果你 你對這一代最聰明的技術人才有什麼結束語?他們應該做什麼?他們應該 應該從事什麼?應該思考什麼, 今晚他們去喫晚飯時該想些什麼?
馬斯克 48:19
就像我開頭說的,我認爲如果你在做有用的事,那就很棒。 如果你只是盡力對你的同胞儘可能有用,那那你就是在做好事。 我不斷強調這點,專注於超級真實(super truthful)的AI,這這對AI安全最重要。 你知道的,顯然如果你知道 誰有興趣在xAI工作,我是說,請請告訴我們。 我們的目標是讓Grok 成爲最大限度追求真相(maximally truth seeking)的AI。 我認爲這非常重要。 希望我們能理解宇宙的本質。這這大概就是AI能告訴我們的。也許AI能告訴我們外星人在哪裏,以及你你知道宇宙是如何真正開始的?它將如何終結?有哪些我們不知道應該問的問題? 我們是在模擬中(simulation)嗎?或者我們在哪個層級的模擬中?
Garry Tan 49:28
我想我們會找到答案的。一個NPC(非玩家角色)。埃隆,非常感謝你加入我們。
風險提示及免責條款 市場有風險,投資需謹慎。本文不構成個人投資建議,也未考慮到個別用戶特殊的投資目標、財務狀況或需要。用戶應考慮本文中的任何意見、觀點或結論是否符合其特定狀況。據此投資,責任自負。