Tesla 找到了物理定律的解決方案。Tesla 開發的「混合精度橋接」首次在專利 US20260017019A1 中揭露。數學轉換器為廉價、低能耗曲線的 8 位元技術架起橋樑。這項技術僅能處理基本整數,現在則有針對精英級 32 位元的 Rot8 高級技術。
它首先解鎖了 AI5 處理器,預計將比我們目前的硬體強大 40 倍。這對於 Tesla Optimus 非常重要,它配備了 2.3 kWh 電池,約為 Model 3 的 1/30。使用 32 位元 GPU 處理時,僅「思考」就會在不到四小時內消耗所有電力,功耗超過 500W。
因此,Tesla 將計算功率預算降低到 100W 以下。「熱牆」問題已得到解決。現在,機器人能夠在 8 小時的工作時間內保持平衡和警覺,並且不會感到發熱。
該專利引入了「矽橋接」,使 Optimus 和 FSD 系統具備超級智能,而不會減少其里程或導致電路因熱量而熔化。這將 Tesla 的經濟型硬體轉變為超級電腦級機器。
此外,它解決了遺忘問題。在以前的 FSD 模型中,車輛會注意到停止標誌,但如果卡車遮擋其視線約 5 秒鐘,它就會「忘記」它。
現在 Tesla 使用「長上下文」視窗,允許 AI 回顧 30 秒前或更久的數據。然而,在時間上的更大「距離」處,標準位置數學往往會導致漂移。
Tesla 的混合精度管道通過維持高位置解析度來解決這個問題。這確保 AI 確切知道被遮擋的停止標誌在哪裡。即使在繞過它移動很長時間後也是如此。事實上,Tesla 團隊表示 RoPE 旋轉足夠精確,可以讓標誌固定在汽車心智地圖中的 3D 座標上。
該專利描述了一種使用 Log-Sum-Exp 近似的特定聆聽方法。通過保持在對數域中,它能夠管理聲音的巨大「動態範圍」,從輕柔的嗡嗡聲到響亮的消防車聲,僅使用 8 位元處理器,而無需「削波」響亮的聲音並失去柔和的聲音。這使汽車能夠以 32 位元精度聆聽和區分其環境。
Tesla 採用量化感知訓練,即「QAT」。Tesla 不是在「完美」的 32 位元環境中訓練 AI,然後再「縮小」它,這通常會導致「醉酒且錯誤」的 AI,而是從第一天起就在具有 8 位元限制的模擬環境中訓練 AI,這基本上解鎖了將 Tesla 的 AI 實施到比汽車小得多的東西中的可能性。
將這些數學融入矽晶片中也為 Tesla 提供了戰略獨立性。Tesla 獨立於 NVIDIA 的 CUDA 生態系統,並能夠同時採用與 Samsung 和 TSMC 的雙代工廠策略。
xAI 結合了 AI 進步和高性能計算能力,使其成為 OpenAI Stargate 的有力競爭對手,後者將於 2027 年發布。
最聰明的加密貨幣專家已經在閱讀我們的電子報。想加入嗎?加入他們吧。


