亚洲av婷婷五月产av中文,久久99国产精品久久99果冻传媒,无套中出丰满人妻无码,国产SUV精品一区二区69

機(jī)器學(xué)習(xí)不斷推動(dòng)視覺(jué)物聯(lián)網(wǎng)應(yīng)用變革,將經(jīng)典的計(jì)算機(jī)視覺(jué)與深度學(xué)習(xí)相結(jié)合進(jìn)行的研究,則顯示出了更好的成果。     計(jì)算機(jī)視覺(jué)是物聯(lián)網(wǎng)(IoT)廣泛應(yīng)用的基礎(chǔ)

2017-12-07 09:30:00 · OFweek人工智能網(wǎng) 閱讀:266
機(jī)器學(xué)習(xí)不斷推動(dòng)視覺(jué)物聯(lián)網(wǎng)應(yīng)用變革,將經(jīng)典的計(jì)算機(jī)視覺(jué)與深度學(xué)習(xí)相結(jié)合進(jìn)行的研究,則顯示出了更好的成果。     計(jì)算機(jī)視覺(jué)是物聯(lián)網(wǎng)(IoT)廣泛應(yīng)用的基礎(chǔ)
機(jī)器學(xué)習(xí)不斷推動(dòng)視覺(jué)物聯(lián)網(wǎng)應(yīng)用變革,將經(jīng)典的計(jì)算機(jī)視覺(jué)與深度學(xué)習(xí)相結(jié)合進(jìn)行的研究,則顯示出了更好的成果。

    計(jì)算機(jī)視覺(jué)是物聯(lián)網(wǎng)(IoT)廣泛應(yīng)用的基礎(chǔ)。家庭成員通過(guò)安裝了攝像頭的家庭監(jiān)控系統(tǒng)就能了解家里的所有情況。機(jī)器人和無(wú)人機(jī)使用視覺(jué)系統(tǒng)映射環(huán)境并避免行進(jìn)中的障礙物。增強(qiáng)現(xiàn)實(shí)眼鏡使用計(jì)算機(jī)視覺(jué)來(lái)覆蓋用戶(hù)視圖上的重要信息;汽車(chē)通過(guò)來(lái)自安裝在車(chē)輛上多個(gè)照相機(jī)捕捉的圖像,向駕駛員提供有助于防止碰撞的環(huán)繞或“鳥(niǎo)瞰”視圖。各種應(yīng)用案例數(shù)不勝數(shù)。

    多年來(lái),設(shè)備功能(包括計(jì)算能力、內(nèi)存容量、功耗、圖像傳感器分辨率以及光學(xué)系數(shù))的指數(shù)式演變提高了物聯(lián)網(wǎng)應(yīng)用中計(jì)算機(jī)視覺(jué)的性能和成本效益。伴隨這些而來(lái)的是精密軟件算法的發(fā)展和完善,例如人臉檢測(cè)和識(shí)別、物體檢測(cè)和分類(lèi)以及同步定位和映射等。

1

    機(jī)器學(xué)習(xí)的興起和面臨的挑戰(zhàn)

    近年來(lái),人工智能(AI),尤其是深度學(xué)習(xí)的發(fā)展,進(jìn)一步加快了物聯(lián)網(wǎng)視覺(jué)應(yīng)用的激增。與傳統(tǒng)的計(jì)算機(jī)視覺(jué)技術(shù)相比,深度學(xué)習(xí)為物聯(lián)網(wǎng)開(kāi)發(fā)人員在諸如目標(biāo)分類(lèi)等任務(wù)方面提供了更高的準(zhǔn)確性。由于深度學(xué)習(xí)中使用的神經(jīng)網(wǎng)絡(luò)是“通過(guò)訓(xùn)練”而不是“編程”實(shí)現(xiàn)的,使用這種方法的應(yīng)用通常更易進(jìn)行開(kāi)發(fā),從而更好地利用當(dāng)前系統(tǒng)中可用的大量圖像和視頻數(shù)據(jù)。深度學(xué)習(xí)還提供了卓越的多功能性,這是因?yàn)榕c針對(duì)性更強(qiáng)的計(jì)算機(jī)視覺(jué)算法相比,神經(jīng)網(wǎng)絡(luò)研究和框架的用途更廣。

    但是,深度學(xué)習(xí)的優(yōu)勢(shì)并非沒(méi)有權(quán)衡和挑戰(zhàn)。深度學(xué)習(xí)需要大量的計(jì)算資源,用于訓(xùn)練和推測(cè)階段。最近的研究表明,不同的深度學(xué)習(xí)模型所需的計(jì)算能力與深度學(xué)習(xí)技術(shù)的精度之間存在緊密的關(guān)系。在基于視覺(jué)的應(yīng)用程序中,從75%到80%的精度轉(zhuǎn)變可能需要不少于數(shù)十億次額外的數(shù)學(xué)運(yùn)算。

    使用深度學(xué)習(xí)的視覺(jué)處理結(jié)果也取決于圖像分辨率。例如,為了在目標(biāo)分類(lèi)過(guò)程中獲得最充分的表現(xiàn)需要高分辨率的圖像或視頻,從而提升了需要處理、存儲(chǔ)和傳輸?shù)臄?shù)據(jù)量。圖像分辨率對(duì)于需要在遠(yuǎn)處探測(cè)和目標(biāo)分類(lèi)的應(yīng)用尤為重要,例如企業(yè)安防攝像頭。

    計(jì)算機(jī)視覺(jué)與機(jī)器學(xué)習(xí)結(jié)合以獲得更佳性能

    傳統(tǒng)的計(jì)算機(jī)視覺(jué)和深度學(xué)習(xí)方法之間有明顯的折中。傳統(tǒng)的計(jì)算機(jī)視覺(jué)算法已經(jīng)成熟,經(jīng)過(guò)驗(yàn)證,并且在性能和功率效率方面進(jìn)行了優(yōu)化;而深度學(xué)習(xí)能提供更高的精度和多功能性,但是需要大量的計(jì)算資源。

    那些希望快速實(shí)施高性能系統(tǒng)的用戶(hù)發(fā)現(xiàn),將傳統(tǒng)計(jì)算機(jī)視覺(jué)和深度學(xué)習(xí)相結(jié)合的混合方法可以提供兩全其美的解決方案。例如,在安防攝像頭中,計(jì)算機(jī)視覺(jué)算法可以有效地檢測(cè)場(chǎng)景中的人臉或移動(dòng)物體。然后,通過(guò)深度學(xué)習(xí)來(lái)處理檢測(cè)到的面部或目標(biāo)圖像的較小片段,以進(jìn)行身份驗(yàn)證或目標(biāo)分類(lèi)。與整個(gè)場(chǎng)景、每幀深度學(xué)習(xí)相比,節(jié)省了大量的計(jì)算資源。

    充分利用邊緣計(jì)算

    就像使用純粹的深度學(xué)習(xí)一樣,用于視覺(jué)處理的混合方法可以充分利用邊緣的異構(gòu)計(jì)算能力。異構(gòu)計(jì)算架構(gòu)有助于提高視覺(jué)處理性能和能效,為不同的工作負(fù)載分配最高效的計(jì)算引擎。當(dāng)深度學(xué)習(xí)推斷是在DSP上執(zhí)行而不是在CPU上執(zhí)行時(shí),測(cè)試結(jié)果顯示目標(biāo)檢測(cè)延遲降低了10倍。

    與云計(jì)算相比,在物聯(lián)網(wǎng)設(shè)備本身上運(yùn)行算法和神經(jīng)網(wǎng)絡(luò)推斷也有助于降低延遲和帶寬要求。邊緣計(jì)算還可以通過(guò)減少云存儲(chǔ)和處理要求來(lái)降低成本,同時(shí)通過(guò)避免在網(wǎng)絡(luò)上傳輸敏感或可識(shí)別的數(shù)據(jù)來(lái)保護(hù)用戶(hù)的隱私和安全。

    深度學(xué)習(xí)創(chuàng)新正在推動(dòng)物聯(lián)網(wǎng)突破,以及將這些技術(shù)與傳統(tǒng)算法相結(jié)合的混合技術(shù)的發(fā)展。視覺(jué)處理只是一個(gè)開(kāi)始,因?yàn)橄嗤脑瓌t可以應(yīng)用于其他領(lǐng)域,如音頻分析等。隨著邊緣設(shè)備變得更加智能和強(qiáng)大,創(chuàng)新者可以開(kāi)始構(gòu)建此前無(wú)法實(shí)現(xiàn)的產(chǎn)品和應(yīng)用。

聲明:本文內(nèi)容來(lái)源自網(wǎng)絡(luò),文字、圖片等素材版權(quán)屬于原作者,橙電平臺(tái)轉(zhuǎn)載素材出于傳遞更多信息,文章內(nèi)容僅供參考與學(xué)習(xí),切勿作為商業(yè)目的使用。 如果侵害了您的合法權(quán)益,請(qǐng)您及時(shí)與我們聯(lián)系(2430586914@qq.com),我們會(huì)在第一時(shí)間進(jìn)行處理!我們尊重版權(quán),也致力于保護(hù)版權(quán),橙電平臺(tái)感謝您的分享!
  • 2020-10-07 00:00
  • 2020-10-07 00:00
  • 2020-10-10 00:00
  • 2020-10-10 00:00
  • 2020-10-10 00:00
  • 2020-10-10 00:00
  • 2020-10-02 00:00
  • 2020-10-02 00:00
  • 2020-10-02 00:00
  • 2020-10-02 00:00

TOPS
  • 日排行 /
  • 周排行 /
  • 原創(chuàng)