http://007sbw.cn 2025-07-31 10:44 來源:芯科科技
人工智能(AI)和機器學習(ML)是使系統(tǒng)能夠從數(shù)據(jù)中學習、進行推理并隨著時間的推移提高性能的關鍵技術。這些技術通常用于大型數(shù)據(jù)中心和功能強大的GPU,但在微控制器(MCU)等資源受限的器件上部署這些技術的需求也在不斷增加。
本文將探討MCU技術和AI/ML的交集,以及它如何影響低功耗邊緣設備。同時將討論在電池供電設備的MCU上運行人工智能的困難、創(chuàng)新和實際應用場景。
AI/ML和MCU:簡要概述
人工智能創(chuàng)建的計算機系統(tǒng)可以執(zhí)行類似人類的任務,例如理解語言、尋找模式和做出決定。機器學習是人工智能的一個子集,涉及使用算法讓計算機從數(shù)據(jù)中學習并隨著時間的推移不斷改進。機器學習模型可以尋找模式、排序?qū)ο蟆⒉氖纠蓄A測結果。
MCU使人工智能和機器學習在邊緣設備上成為可能,可以在多個方面發(fā)揮著重要作用。
基于MCU運行的邊緣AI/ML的一些應用場景包括:
關鍵詞識別:無需云連接即可識別特定詞語或短語(例如語音命令)
傳感器融合:結合來自多個傳感器的數(shù)據(jù),做出比使用單一傳感器解決方案更明智的決策
異常檢測:檢測傳感器數(shù)據(jù)中可能指示故障、錯誤或威脅的異常值或異常模式,以進行預測性維護或質(zhì)量控制
目標檢測:在攝像頭或其他傳感器捕獲的圖像或視頻中識別和定位感興趣的目標(例如人臉、行人、車輛)
手勢識別:在攝像頭或其他傳感器捕獲的圖像或視頻中解讀人類手勢(例如手部動作、面部表情、身體姿勢),以改善人機交互
AI/ML在MCU上的挑戰(zhàn)
深度學習模型,特別是深度神經(jīng)網(wǎng)絡(DNN),已經(jīng)成為計算機視覺和自然語言處理等復雜任務中不可或缺的一部分。然而,它們的計算需求是巨大的。這種資源密集型模型對于日常設備來說是不切實際的,尤其是那些由邊緣設備中的低功耗MCU驅(qū)動的設備。深度學習模型的復雜性必然會增長,隨著深度神經(jīng)網(wǎng)絡變得越來越復雜,其規(guī)模會不斷擴大,使它們與MCU上有限的可用計算資源不相容。
什么是TinyML?
TinyML指的是為在資源受限的設備上部署人工智能而優(yōu)化的機器學習模型和技術。這些設備在邊緣運行,在那里生成數(shù)據(jù),并在本地執(zhí)行推理。TinyML系統(tǒng)通常在低功耗MCU上運行,對在節(jié)點本地收集的數(shù)據(jù)執(zhí)行推理。推理是人工智能模型的關鍵時刻,測試它在訓練中所學知識的應用能力。本地推理使MCU能夠直接執(zhí)行人工智能模型,無需依賴外部服務器或云服務即可做出實時決策。
在AI/ML環(huán)境中進行本地推理至關重要,原因如下:
資源限制:許多嵌入式設備,特別是那些使用電池供電的設備,其內(nèi)存、處理能力和能源效率等資源有限。傳統(tǒng)的通用MCU由于其有限的處理能力和內(nèi)存、有限的能源資源或缺乏片上加速功能而難以有效地執(zhí)行人工智能任務。本地推理支持這些資源受限的設備在不消耗過多功耗的情況下執(zhí)行人工智能工作負載,以提高效率和性能。
用戶體驗增強:舉例而言:支持人工智能的電子貓門。通過訓練它來區(qū)分貓和其他物體,它只能為授權的貓打開門。在這里,本地推理通過確保安全性和便利性來改善用戶體驗,而不需要RFID項圈等其他硬件。
效率和性能:GPU通常用于大規(guī)模人工智能部署,因為它們可以并行執(zhí)行許多流程,這對高效的人工智能訓練至關重要。然而,對于小型嵌入式應用來說,GPU成本高昂,并且超出了功耗預算。人工智能優(yōu)化的MCU具有專用架構,通過為人工智能工作負載提供更好的性能和能效來實現(xiàn)平衡。在Silicon Labs(芯科科技)提供的新型無線SoC和MCU中,已包括一個矩陣矢量處理器來為其AI/ML功能提供一部分支持。這種專用的硬件加速器旨在增強AI/ML算法或矢量數(shù)學運算的性能,以縮短推理時間并以更低的功耗執(zhí)行這些關鍵任務。
總之,邊緣的本地推理可以實現(xiàn)實時決策、減少延遲、增強安全性、為電池供電的設備提供人工智能功能,并增強用戶體驗,使其成為現(xiàn)代計算系統(tǒng)的關鍵組成部分,同時滿足資源限制。
芯科科技引領邊緣AI/ML解決方案
芯科科技作為智能、安全物聯(lián)網(wǎng)無線連接領域的開拓者,正在致力于將AI/ML帶到邊緣。我們對創(chuàng)新的承諾帶來了突破性的解決方案,使MCU等資源受限的產(chǎn)品具有更豐富的智能功能。
針對TinyML優(yōu)化的器件
EFR32xG24、EFR32xG28和EFR32xG26等無線MCU系列產(chǎn)品均結合了78 MHz的ARM Cortex®-M33處理器、高性能射頻、精密模擬性能,以及一個AI/ML硬件加速器,為開發(fā)人員提供了一個部署邊緣智能的靈活平臺。同時,這些產(chǎn)品還支持廣泛的無線物聯(lián)網(wǎng)協(xié)議,具有市場領先的安全性和最佳的射頻性能/能效比。
當今的開發(fā)人員經(jīng)常被迫為在邊緣部署AI/ML而在性能或能耗方面付出高昂的代價。xG24、xG28和xG26系列作為首款內(nèi)置專用AI/ML加速器的超低功耗產(chǎn)品,可降低整體設計復雜性,從而減輕這些代價。這種專用硬件旨在處理復雜的計算,與僅采用固件的方法相比,推理速度提高8倍,能效提高6倍,與基于云的解決方案相比,性能更高。硬件加速器的使用減輕了主應用MCU推理的負擔,留出更多的時鐘周期為用戶的應用提供服務。
簡化AI/ML開發(fā)的工具
構建、測試和部署機器學習所需算法的工具與運行這些算法的MCU同樣重要。通過與TensorFlow、SensiML和Edge Impulse等TinyML領域的行業(yè)翹楚合作,芯科科技同時為初學者和專家提供了選擇。開發(fā)人員可以將這一新AI/ML工具鏈與芯科科技的Simplicity Studio開發(fā)環(huán)境配合使用,創(chuàng)建可從各種連接設備中獲取信息的應用程序,從而做出智能的機器學習驅(qū)動的決策。
芯科科技提供各種工具和資源來支持機器學習應用:
機器學習應用:該開發(fā)平臺支持嵌入式機器學習(TinyML)模型推理,由TensorFlow Lite for Microcontrollers (TFLM)框架提供支持。其計算庫包含一組利用機器學習的嵌入式應用程序。
機器學習工具包(MLTK):這是一個帶有命令行實用程序和腳本的Python包,可幫助開發(fā)者為芯科科技的嵌入式平臺開發(fā)機器學習模型。它包括從命令行界面或Python腳本執(zhí)行機器學習操作、確定機器學習模型在嵌入式平臺上的執(zhí)行效率以及使用Google TensorFlow訓練機器學習模型的功能。
芯科科技還提供TinyML解決方案,作為機器學習工具包的一部分。該工具包包括TinyML基準測試使用的幾種模型。這些模型可在芯科科技GitHub上找到,包括異常檢測、圖像分類和關鍵詞識別。
AI/ML驅(qū)動的邊緣設備為我們?nèi)绾闻c周圍環(huán)境互動開辟了新的視野,它們很快將以令人驚嘆的方式改變我們的生活。芯科科技處于TinyML創(chuàng)新的最前沿,能夠以前所未有的方式將這些功能帶入低功耗、聯(lián)網(wǎng)的邊緣設備。
點擊此處,了解更多關于芯科科技的EFR和EFM MCU平臺是如何針對邊緣AI/ML進行優(yōu)化。