【導讀】據(jù)麥姆斯咨詢報道,近日,亞利桑那州立大學(Arizona State University)介紹了一種片上模擬-信息轉換技術,該技術利用基于儲層計算范式的模擬超維計算,在本地傳感器內處理心電圖(electrocardiograph,ECG)信號,并將射頻(RF)傳輸減少三個數(shù)量級以上。片上模擬-信息轉換器不是傳輸稀疏的ECG信號或提取的特征,而是通過一個附有人工神經網絡的非線性存儲內核來分析ECG信號,并傳輸預測結果。所開發(fā)的技術被證明可用于檢測敗血癥發(fā)作,并實現(xiàn)了超高的準確度和能效,同時使用65nm CMOS原型測試芯片將傳感器功耗降低了159倍。
射頻傳輸是無線傳感器功耗產生的主要因素,因此,本地傳感器內信號處理優(yōu)于連續(xù)射頻傳輸,尤其對于生物醫(yī)學傳感器。例如,低功率MedRadio傳輸器的功耗為67μW,明顯高于片上特征提取。雖然有幾種技術可以壓縮射頻傳輸,但壓縮比通常限制在<20倍。迄今為止,壓縮射頻傳輸?shù)姆椒ㄓ谢谙∈栊缘臄?shù)據(jù)壓縮算法、基于導數(shù)的自適應采樣、過電平采樣和自適應分辨率數(shù)字化。據(jù)報道,上述技術已將傳輸數(shù)據(jù)壓縮了2~16倍。與現(xiàn)有技術相比,研究人員提出將人工智能(artificial intelligence,AI)嵌入傳感器本身,以分析每個ECG片段,并僅傳輸預測分數(shù),而不是ECG數(shù)據(jù)或提取的特征,以將射頻傳輸降低5000倍以上。
由于人工智能算法是計算密集型的,因此設計低能耗的傳感器內神經網絡具有挑戰(zhàn)性。在本項工作中,為了解決無線生物醫(yī)學傳感器中的能量瓶頸,研究人員提出了一種直接處理模擬ECG樣本的模擬信號處理神經網絡。這項工作的主要貢獻是設計和演示了一種片上模擬分類器,其由一個儲層計算機(reservoir-computer,RC)和一個三層人工神經網絡(artificial neural network,ANN)組成,用于處理模擬ECG片段。與數(shù)字基線(前端ADC和數(shù)字ANN)相比,能耗降低了13倍;與直接傳輸數(shù)字化ECG片段相比,傳感器總能耗降低了159倍。傳感器內處理AI電路主要用于CMOS圖像傳感器,通過執(zhí)行片上特征提取來減少需要傳輸?shù)絺鞲衅魍獾臄?shù)據(jù)量。據(jù)研究人員所知,這項工作提出了第一個用于模擬-信息轉換的傳感器內人工智能電路,以顯著降低可穿戴生理傳感器的傳輸能量,并延長此類無線傳感器的電池壽命。
傳統(tǒng)ECG傳感器與所提出的具有傳感器內RC+ANN人工智能模塊的ECG傳感器對比
與傳輸所有數(shù)字化數(shù)據(jù)和數(shù)字基線的傳統(tǒng)傳感器技術的能耗比較
在這項工作中,MIMIC–III數(shù)據(jù)集的ECG信號被用于證明通過傳感器內人工智能進行模擬-信息轉換技術的可行性。然而,在實際的家庭監(jiān)護應用中,所獲取的ECG信號可能包含偽影,在將ECG信號發(fā)送到RC+ANN組合之前,需要經過具有帶通濾波模擬前端(analog front-end,AFE)的處理。AFE將消耗額外的功率,這將降低這項技術相對于傳輸所有傳感器數(shù)據(jù)的傳統(tǒng)方法的能耗優(yōu)勢。因此,傳感器內人工智能技術將高能效的設計挑戰(zhàn)從傳輸轉移到了AFE。通過基于反相器的放大器設計和反相器堆疊可以潛在地提高AFE能源效率,以降低傳感器的總能耗。
本項工作在電路方面的限制是研究人員設計的電路比最先進的基于SRAM的人工智能電路的面積效率低。這種面積限制主要是由于使用開關電容電路作為矩陣乘法的構建塊,其面積效率低于SRAM單元。本設計中使用的金屬對金屬(metal-on-metal)電容器的面積密度(以fF/μmm2表示)沒有晶體管的面積密度大,因此SRAM電路相對于RC+ANN的面積效率優(yōu)勢可能會隨著CMOS技術的擴展而增大。由于輸入層和存儲層中的計算可能是非線性的,所以提高RC+ANN的面積效率的潛在解決方案是在輸入層和存儲層中采用SRAM陣列進行矩陣乘法,并且僅在需要更高線性度的情況下使用開關電容電路進行基于ANN的讀出。
用于分析ECG信號的儲層計算機的電路示意圖
論文信息:
https://www.nature.com/articles/s41598-022-23100-4
來源:MEMS
免責聲明:本文為轉載文章,轉載此文目的在于傳遞更多信息,版權歸原作者所有。本文所用視頻、圖片、文字如涉及作品版權問題,請聯(lián)系小編進行處理。
推薦閱讀: