智通財經APP獲悉,美國科技巨頭微軟(MSFT.US) 於當地時間週三發佈了一款全新量子芯片,微軟稱該量子芯片比競爭對手更少出錯,該芯片是半導體和超導體的混合體,從外形上來看可謂科幻感十足,頗具科幻電影中的“未來主義風格”。並且微軟表示這款芯片問世表明實用的量子計算距離現實“只有幾年,而不是幾十年”,這一預期與谷歌CEO桑達爾·皮查伊前不久的預測基本一致。微軟推出的全新量子計算芯片,可謂凸顯出量子計算領域繼谷歌Willow量子芯片震撼問世之後,迎來又一個關鍵里程碑。
這一名為“Majorana
1”的微軟量子芯片正式推出,也使得1月在官方博客稱“2025年是量子就緒之年”的微軟加入了谷歌(GOOGL.US) 和IBM(IBM.US) 所主導的量子計算核心硬件領域,並且這些科技巨無霸們均預測人類計算技術的實質性變革比人們普遍的進展要快得多。
“Majorana
1”震撼發佈後有科技行業觀察人士表示,量子計算可能不會成為微軟旗下獨立的計算業務部門,而是助力提升微軟核心業務的技術發展路徑,比如當前微軟佈局力度最大的人工智能(AI)領域。
隨着此前問世的IBM Eagle芯片和Condor芯片等量子處理器,去年12月的谷歌Willow量子芯片,以及最新的微軟“Majorana
1”展示在世人面前,量子計算加速所驅動的AI應用,比如融合量子計算的人工智能訓練/推理算力系統,有望自2025年開始有望加速擴張,“融合人工智能(AI)與量子計算”的人類社會超級算力時代可謂漸行漸近。
量子計算有望執行當今傳統的二進制計算系統需要數百萬年才能完成的計算任務,並可能在生物醫學、化學和天體物理學其他許多前沿研發領域中解鎖新的理論發現,這些領域中的分子組合近乎無限,傳統計算機難以應對。根據谷歌12月9日的一份聲明,Willow量子芯片在基準測試中展示了驚人的性能,能夠在不到5分鐘內完成一個“標準的基準計算”,而傳統超級計算機完成同樣的任務需要“10的25次方年”。
然而,量子計算機也帶來了顛覆當今網絡安全系統的風險,因為大多數加密技術依賴於“暴力破解需要太長時間”的假設,而在量子計算面臨所謂的“暴力破解”難度根本不存在。
構建實用級別的量子計算機的最大挑戰在於其基本構建模塊——量子比特(qubit)。量子比特類似於經典計算中的比特或者位,但其速度極快,同時穩定性對於目前人類量子科技水平來説也極難控制且非常容易出錯。
不過微軟在最新聲明中表示,其開發的Majorana
1量子芯片比競爭對手的量子芯片更少出錯,並提供了即將發表在頂級學術期刊《自然》上的科學論文作為證據。
不過需要注意的是,包括谷歌和微軟在內,目前還沒有任何公司實現任何意義上可精準控制量子態且能夠實現大規模商業化的實質用途級別“量子計算”。這也是為什麼谷歌首席執行官在一份帖子強調Willow量子芯片為“邁向打造實用量子計算機的重要步伐”,這也意味着谷歌在距離實現可控且商業化的“量子計算”也有着一段距離。
目前人類技術無法以通用的計算體系實現對於量子態的精準與穩定控制,尤其是在實現精準且可控的“量子糾纏”方面存在很大的技術瓶頸。量子糾纏是量子計算的關鍵特性之一,它允許量子比特之間的超強關聯,這對於海量並行計算和解決某些問題至關重要。量子計算的商業化進程需要解決量子錯誤修正、量子比特的穩定性等一系列技術挑戰,以及需要糾纏深度與規模可控,且精準實現對於商業化而言最核心的特殊量子態——量子糾纏。然而,當前技術尚未能夠實現大規模、長期穩定的量子糾纏。
佈局量子計算的科技巨頭越來越多,量子領域的“Transformer時刻”越來越近
實用量子計算的到來時間成為美國科技行業高層間的熱議話題。英偉達(NVDA.US) 首席執行官黃仁勛的觀點與谷歌和微軟則有所不同,“皮衣刀客”黃仁勛上個月曾表示,實用的量子計算技術距離超越其公司的人工智能芯片算力系統還有20年-30年的時間,這反映出在科技行業廣泛存在的懷疑態度。
黃仁勛的言論促使量子計算領域領軍者集體反擊,在去年展示其新量子芯片的谷歌表示,可商業化的量子計算應用距離現實只有五年左右的時間。IBM則表示,大規模量子計算機集羣將在2033年上線。D-Wave
Quantum(QBTS.US) 與IonQ(IONQ.US) 對於黃仁勛的反擊點在於他們已經實現了具有“實際用途的量子計算應用”,事實證明確實如此,但商業化範圍極度狹窄。
但不可否認的是,越來越多科技巨頭加大力度佈局量子計算領域,英偉達創始人兼CEO黃仁勛似乎打從心底看好量子計算髮展前景,欲成為量子計算領軍者之一,這可能是為何距離他發表上述的這番話不到一週時間,英偉達官宣將在於3月17日至21日的GTC大會上舉辦首個“量子日”(Quantum
Day),黃仁勛屆時將與行業領袖們同台探討量子計算最新技術進展。幾乎同一時間,微軟也為量子計算“打call”,在官方博客稱2025年是“量子就緒之年”。
據悉,微軟的“Majorana
1”量子芯片已經研發了近20年,依賴於一種被稱為Majorana費米子的亞原子粒子。這種粒子在20世紀30年代首次被物理學界理論化,其特性使其不易出現量子計算機常見的錯誤,但物理學家們一直難以精準找到並控制它。
微軟的Majorana 1芯片採用砷化銦和鋁金屬所製成,該計算設備使用超導納米線來觀察粒子,並可以通過傳統的標準計算設備進行控制與執行。
雖然微軟週三發佈的量子芯片的量子比特數量遠少於谷歌和IBM的競爭對手芯片,但微軟認為,由於其錯誤率低得多,基於Majorana
1芯片的量子比特數量將大幅減少,從而製造出實用的大型量子計算機。
微軟沒有給出該芯片擴展為能夠超越當今傳統機器的量子計算機的時間表,但該公司在一篇博客文章中表示,這一時刻“只有幾年,而不是幾十年”的距離。
負責微軟長期戰略投資的執行副總裁傑森·贊德將Majorana 1描述為“高風險、高回報”的研究戰略。
微軟表示,這一科幻風十足的量子芯片由華盛頓州和丹麥的微軟實驗室所製造。
“最困難的部分是解決物理問題。我們沒有任何教科書可供參考,必須依靠研發團隊來進行解決。”贊德在接受媒體採訪時表示。“我們實際上發明了逐個原子、逐層製造這種新事物的能力。”
哈佛大學物理學教授菲利普·金(未參與微軟的研究)表示,Majorana費米子數十年來一直是物理學家們的熱門討論話題,並稱微軟的工作是“令人興奮的進展”,使該公司處於量子研究的最前沿。
他還表示,微軟使用傳統半導體和奇異超導體混合的方法似乎是製造可擴展為更強大量子芯片的良好前沿途徑。“雖然還沒有擴大規模的實際證明,但他們所做的一切真的很成功。”
Transformer架構的橫空出世標誌着深度學習與人工智能領域迎來了新的範式轉變,可謂直接推動了ChatGPT等生成式
AI應用軟件的誕生,正是Transformer以及能夠高效運行該架構的硬件算力體系將“生成式AI”從谷歌AI實驗室帶向商業應用。後來的 GPT
家族所有AI大模型,以及Gemini、Claude與LIama等大模型都是基於 Transformer
架構,堪稱“AI大模型之母”。展望量子計算的未來,所謂的“Transformer時刻”距離人類社會漸行漸近。
量子計算的“Transformer時刻”,即指代“基於量子計算技術所打造出的可控的、具有大型商業價值的量子計算應用系統”,這裏的量子計算包括但不限於離子阱、量子退火、量子模擬、超導量子比特以及量子糾纏與拓撲量子等等。目前人類技術無法以通用的計算體系實現對於量子態的精準與穩定控制模式,尤其是在實現精準且可控的“量子糾纏”方面存在很大的技術瓶頸。
但是近年來離子阱技術(比如IonQ、霍尼韋爾的量子解決方案)、D-Wave量子退火計算機等量子計算領域取得突破式進展,IBM力爭融合量子比特與二進制算力硬件基礎設施,再到2024年12月,谷歌
Willow震撼發佈,以及名為“Majorana
1”的微軟量子芯片問世,量子計算領域似乎出現類似的“範式轉變”重要基礎,使得量子計算有望從物理書上的純理論逐漸走向“可控的、具有商業價值的實用量子計算應用系統”。
隨着英偉達與微軟這兩大科技巨無霸,以及此前公佈量子藍圖的亞馬遜官宣入局,再加上谷歌與IBM多年以來深耕於量子計算底層理論與量子硬件體系,以它們的人才儲備以及龐大資金體量,再加上各國政府近年來的強力支持,或將推動量子計算商業化的軌跡步入加速曲線。
量子計算——推動人工智能發展的核心力量
量子計算的未來,大概率將是加速人工智能算力發展的核心引擎。量子計算不僅可以加速AI大模型訓練過程,解決AI推理系統中一些依靠傳統算力無法解決的計算難題,甚至有可能在未來通過量子神經網絡等融合“AI+量子”的全新技術推動更高效的人工智能大模型開發,加快AI人形機器人以及所謂的AGI等人工智能時代最具顛覆性質的“賽博朋克式產品”滲透至全球。
量子計算基於量子力學的原理,與傳統的經典計算截然不同。量子計算機使用量子比特,而非傳統計算機的二進制位,並且量子比特能夠利用量子疊加、量子糾纏和量子干涉等量子基本特性來進行計算。這使得量子計算具備巨大的並行計算能力和指數級加速能力,這些能力對於人工智能訓練/推理系統的發展以及全面推向市場來説可謂提供宛如“開掛”般的助力,未來與人工智能應用相關的成本有望大幅下降且可能實現在極短時間內將人工智能大模型以及所謂的“具身AI”——主要包括AI人形機器人,覆蓋至全球大部分地區,帶來一場“工業革命級別”的人類生產率升級浪潮。
比如傳統AI大模型在處理數十億到萬億級別的參數時需要極高的計算能力,這也使得AI大模型的訓練和部署成本非常昂貴。大模型通常需要在巨大的參數空間中進行探索,而量子計算能夠利用量子疊加性在這些高維空間中快速找到有用的解。“量子神經網絡”則是一種結合了量子計算加速模式和神經網絡的混合架構,它能夠利用量子比特的疊加和量子糾纏性質,將使得神經網絡的訓練與推理範式更加高效且精準。
“AI+量子”目前處於最前沿研究與探索領域,這兩者的深度融合,或將是量子計算這一全新加速機計算模式落地大規模實際商業用途的最終目的地。目前“AI+量子”最大難題在於硬件端,如何設計出一個架構能夠完美整合二進制硬件算力基礎設施以及基於量子位的量子計算基礎設施。
這也是為何英偉達已經開始佈局所謂的“QPU”(即量子芯片)平台,比如開源的量子-經典混合計算平台CUDA
Quantum,旨在將量子計算硬件與傳統計算資源(如GPU和CPU)結合,允許開發者們在同一系統中集成和編程量子計算芯片、GPU和CPU,通過CUDA
Quantum,谷歌等量子芯片開發者們將能夠模擬基於量子計算設備的物理特性,幫助解決量子操作中的噪聲、量子錯誤、比特穩定性等問題。
對於人類研發進程的推動,“AI+量子”比單純的AI或者單純的量子計算更具革新意義,量子計算能夠模擬傳統計算機無法高效模擬的複雜量子系統。結合人工智能,對於藥物設計、材料科學和分子模擬等領域的研究具有極其重大的意義,大模型將能夠藉助“量子計算加速範式”,實現更快速地處理複雜模型,從而推動醫藥、生物科技、氣象預報以及能源等行業的創新步伐呈現指數級加速。
(美股為即時串流報價; OTC市場股票除外,資料延遲最少15分鐘。)新聞來源 (不包括新聞圖片): 智通財經