Categories
科技報導

谷歌放棄Pixel 5中的Neural Core移動芯片的計劃令人沮喪



自Pixel 2以來,Google一直在其智能手機中包含其自己的支持芯片組,以改善攝影和其他功能。 但是,正如Google確認其最新旗艦智能手機Pixel 5放棄了Neural Core一樣,Google似乎已經結束了這一趨勢。

Pixel Neural Core是Pixel Visual Core的後續產品。 兩種芯片組均由Google製造,旨在改善攝影效果。 尤其是在神經核心中,谷歌還使用該芯片來加快面部劫持,谷歌助手和Pixel 4的其他新功能。

然而,谷歌的Pixel“ a”系列基本上證實不需要添加芯片。 Pixel 3a和4a在拍攝和處理速度方面與Pixel 3和Pixel 4相似,但是令人驚訝的是,Pixel 5在規格列表中缺少自製芯片組。

在接受Android Police採訪時,谷歌證實Pixel 5和Pixel 4a 5G都缺乏神經核心。 谷歌還提到,通過優化,Pixel 5的Snapdragon 765G可以保持與Pixel 4“相似”的相機性能。

這兩款新手機都沒有Pixel Neural Core,也沒有人臉解鎖功能。

這是否意味著Pixel Neural Core永遠消失了? 也許不會。 谷歌已經提到它將在未來的硬件中恢復Soli,因此可以確定神經核心最終將恢復。 但是,值得注意的是,兩個新的Pixel仍然提供Titan M芯片以確保安全。

擴展閱讀:Google手機上的此芯片可能會改變手機攝影行業

出於某種原因,谷歌的上一代手機Pixel 3被譽為最佳拍照手機。 由於Google在其HDR +軟件包中使用軟件算法來處理上述像素,因此將這些像素與一些機器學習結合使用時,一些非常壯觀的照片可能來自具有標準硬件的手機。

為了幫助處理這些算法,Google使用了專用處理器Pixel Visual Core,這是我們在2017年在Pixel 2上看到的第一款芯片。今年,Google似乎已經用稱為Pixel Neural Core的東西代替了Pixel VIsual Core。

谷歌放棄Pixel 5中的Neural Core移動芯片的計劃令人沮喪 1

根據用戶Chenchen Luo的說法,Pixel 1的HDR +在高通公司的HVX加速器上運行,因為HVX不是為圖像處理而設計的,因此速度非常慢。 為了實現快速連續拍攝的用戶體驗,Google相機進行了圖像緩存,將相機傳感器的每一幀存儲在內存中並排隊以處理HDR。 新一代的Pixel用戶將不會意識到HDR的處理時間。 但是這種方法帶來了一個問題:像Instagram這樣的第三方照片共享應用程序需要您所獲得的就是您所獲得的,並且用戶無法等待幾秒鐘的HDR完成才能共享照片。 因此,在第一代中,HDR +是Google攝像頭應用程序的獨特功能,不能在第三方應用程序中使用。 由於這個原因和老闆的熱情,Pixel Visual Core誕生於硬件加速HDR +,因此第三方應用程序可以立即完成HDR +計算以獲取處理過的照片。 測量結果令人驚訝,特別是在高光對比度下,前後場景非常清晰,並且不會有太暗的臉部照片。 該芯片的優點在於可以對8個IPU內核進行編程,而不能完全對ASIC編程,因此還有許多其他應用場景。 當時,設計該芯片的初衷是成為一種全面的圖像處理芯片,而HDR +則是第一個展示櫃。

最初的Pixel Visual Core旨在加速Google的HDR +圖像處理所使用的算法,從而使Pixel 2和Pixel 3拍攝的照片看起來很棒。 它使用一些機器學習程序和所謂的計算攝影來智能地填充照片中不完美的部分。 其實效果確實不錯; 使用現成的攝像頭傳感器,可以使手機拍攝的照片質量更高。

如果我們相信Pixel Neural Core,那麼Pixel 4將再次爭奪智能手機攝影領域的頭把交椅。

神經網絡

看來Google正在使用以神經網絡技術為模型的芯片來改善其2019 Pixel手的圖像處理能力。 您可能會聽到不止一次或兩次的神經網絡,但是這個概念並不經常被解釋。 相反,它看起來像一些類似於魔術的Google級計算機。 事實並非如此,神經網絡背後的想法實際上很容易使您的思想困惑。

神經網絡是在人腦上建模的一組算法。 它“模仿”的不是大腦的外觀或工作方式,而是大腦如何處理信息。 神經網絡獲取感官數據並通過所謂的機器感知(由諸如機器傳感器之類的外部傳感器收集和傳輸的數據)對其進行識別。

這些數據是稱為向量的數字。 來自“真實”世界的所有外部數據(包括圖像,聲音和文本)都將轉換為矢量,並進行分類和分類為數據集。 我們可以將神經網絡視為存儲在計算機或電話上的事物之上的額外層。 該層包含有關其含義的數據-它看起來像什麼,聽起來像什麼,它說什麼,什麼時候發生。 創建目錄後,可以對新數據進行分類和比較。

一個真實的例子可以使分析更加清晰。 NVIDIA處理器非常擅長運行神經網絡。 該公司花費了大量時間掃描和復制貓的照片到網絡中。 完成後,通過神經網絡的計算機集群可以在任何包含貓的照片中識別貓。 小型貓,大型貓,白色貓,印花布貓,甚至山獅或老虎都是貓。 這主要是因為神經網絡有很多關於貓是什麼的數據。

考慮到這個例子,我們不難理解Google為什麼在手機中使用此功能。 這些可以鏈接到大量數據的神經核心將能夠識別相機鏡頭看到的內容,然後決定要做什麼。 也許有關他所見和所期望的數據可以傳遞給圖像處理算法。 或者,您可以將相同的數據輸入到Assistant中以識別毛衣或蘋果。 或者,您可以比Google現在更快,更準確地翻譯書面文本。

毫不費力地認為Google可以設計一種可以與手機中的神經網絡和圖像處理器接口的小型芯片,這很容易理解。 我們不確定究竟是什麼像素神經芯或它的用途,但是一旦“正式”發布,一旦看到手機及其實際細節,我們肯定會知道更多。