GoogleAlphaQubit重磅發佈,實時為量子計算機糾錯
量子計算機有可能徹底改變藥物發現、材料設計和基礎物理學–前提是,我們能夠讓它們可靠地工作。
如今,人工智能(AI)也有望徹底改變量子計算機。
今日淩晨,Google發佈了一種基於 Transformers、能夠以最先進的精度識別量子計算錯誤的解碼器——AlphaQubit,加快了構建可靠量子計算機的進度。
Google CEO Sundar Pichai 在 X 上寫道,「AlphaQubit 利用 Transformers 對量子計算機進行解碼,在量子糾錯準確性方面達到了新的技術水平。人工智能與量子計算的交彙令人興奮。」
相關研究論文以「Learning high-accuracy error decoding for quantum processors」為題,已發表在權威科學期刊 Nature 上。
準確識別錯誤,是使量子計算機能夠大規模執行長時間計算的關鍵一步,為科學突破和許多新領域的發現打開了大門。
糾正量子計算錯誤
量子計算機利用物質在最小尺度上的獨特特性,如疊加和糾纏,以比經典計算機少得多的步驟解決某些類型的複雜問題。這項技術依賴於量子比特(或量子位 ),量子比特可以利用量子干擾篩選大量的可能性,從而找到答案。
量子比特的自然量子態會受到各種因素的破壞:硬件中的微小缺陷、熱量、振動、電磁干擾甚至宇宙射線(宇宙射線無處不在)。
量子糾錯通過使用冗餘提供了一個解決方案:將多個量子比特組合成一個邏輯量子比特,並定期對其進行一致性檢查。解碼器通過使用這些一致性檢查來識別邏輯量子比特中的錯誤,從而保存量子信息,並對其進行糾正。
圖|邊長為 3(碼距)的量子比特網格中的 9 個物理量子比特(灰色小圓圈)是如何構成邏輯量子比特的。在每個時間步中,還有 8 個量子比特執行一致性檢查(正方形和半圓形區域,失敗時為藍色和品紅色,否則為灰色),為 AlphaQubit 提供信息。實驗結束時,AlphaQubit 會確定發生了哪些錯誤。
創建神經網絡解碼器
AlphaQubit 是基於神經網絡的解碼器,它借鑒了Google開發的深度學習架構 Transformers,該架構是當今許多大語言模型(LLM)的基礎。利用一致性檢查作為輸入,它的任務是正確預測邏輯量子比特在實驗結束時的測量結果是否與準備時的結果相反。
研究團隊首先對模型進行了訓練,從而解碼來自 Sycamore 量子處理器(量子計算機的中央計算單元)內一組 49 量子比特的數據。為了教會 AlphaQubit 解決一般的解碼問題,他們使用量子模擬器生成了數以億計的示例,這些示例跨越了各種設置和誤差水平。然後,他們通過給 AlphaQubit 提供來自特定 Sycamore 處理器的數千個實驗樣本,針對特定的解碼任務對其進行微調。
在新的 Sycamore 數據上進行測試時,AlphaQubit 與之前的前沿解碼器相比,在準確性方面樹立了新的標準。在最大規模的 Sycamore 實驗中,AlphaQubit 的錯誤率比張量網絡方法低 6%,而張量網絡方法雖然精度高,但速度卻非常慢。AlphaQubit 的錯誤率也比相關匹配法低 30%,後者是一種精確的解碼器,速度快到足以擴展。
圖|小型和大型 Sycamore 實驗的解碼精度(距離 3 = 17 個物理量子比特,距離 5 = 49 個物理量位)。AlphaQubit 比張量網絡(TN,一種無法在大型實驗中擴展的方法)和相關匹配(一種速度可擴展的精確解碼器)更精確。
泛化到訓練數據以外
為了瞭解 AlphaQubit 如何適應誤差水平較低的大型設備,研究團隊使用多達 241 量子比特的模擬量子系統數據對其進行了訓練,因為這超出了 Sycamore 平台的可用範圍。
同樣,AlphaQubit 的性能也優於領先的算法解碼器,這表明它將來也能用於中型量子設備。
圖|從距離 3(17 量子比特)到距離 11(241 量子比特)不同規模/模擬實驗的解碼精度。張量網絡解碼器沒有出現在此圖中,因為它的速度太慢,無法在大距離下運行。其他兩個解碼器的精確度隨著距離的增加(即使用更多物理比特)而提高。在每個距離上,AlphaQubit 都比相關匹配更精確。
AlphaQubit 還展示了一些先進功能,比如接受和報告輸入和輸出的置信度。這些信息豐富的接口有助於進一步提高量子處理器的性能。
當研究團隊在包含多達 25 輪糾錯的樣本上對 AlphaQubit 進行訓練時,它在多達 100000 輪的模擬實驗中保持了良好的性能,這表明它有能力泛化到訓練數據以外的場景。
實時糾錯仍須加速
Google表示,AlphaQubit 是利用機器學習進行量子糾錯的一個重要里程碑。但他們仍然面臨著速度和可擴展性方面的重大挑戰。
例如,在快速超導量子處理器中,每個一致性檢查每秒要測量一百萬次。雖然 AlphaQubit 在準確識別錯誤方面非常出色,但要在超導處理器中實時糾錯,它的速度仍然太慢。隨著量子計算的發展,商業應用可能需要數百萬量子比特,這亟需更高效的數據方法來訓練基於人工智能的解碼器。
本文來自微信公眾號:學術頭條