隨著深度學習技術的成熟,AI人工智能正在逐步從尖端技術變得普及,人們對AI的好奇也在慢慢積累。
AI技術應用主要是在以下幾個方面:自然語言處理,包括語音和語義識別、自動翻譯;計算機視覺,圖像識別;知識表示;自動推理,包括規劃和決策;機器學習和機器人學。按照技術類別來分,可以分成感知輸入,學習與訓練兩種。
由此,計算機通過語言識別、圖像識別、讀取知識庫、人機交互、物理傳感等方式,獲得音視頻的感知輸入,然后從大數據中進行學習,得到一個有決策和創造能力的大腦,就是AI的應用過程。
從上世紀八九十年代的PC時代,進入到互聯網時代后,給我們帶來的是信息的爆炸和信息載體的去中心化。而網絡信息獲取渠道從PC轉移到移動端后,萬物互聯成為趨勢,但技術的限制導致移動互聯網難以催生出更多的新應用和商業模式。而現在,大規模并行計算、大數據、深度學習算法和人腦芯片這四大催化劑的發展,以及計算成本的降低,使得人工智能技術突飛猛進。
以下則是驅動人工智能發展的先決條件:
物聯網 ——物聯網提供了計算機感知和控制物理世界的接口和手段,它們負責采集數據、記憶、分析、傳送數據、交互、控制等等。攝像頭和相機記錄了關于世界的大量的圖像和視頻,麥克風記錄語音和聲音,各種傳感器將它們感受到的世界數字化等等。這些傳感器,就如同人類的五官,是智能系統的數據輸入,感知世界的方式。而大量智能設備的出現則進一步加速了傳感器領域的繁榮,這些延伸向真實世界各個領域的觸角是機器感知世界的基礎,而感知則是智能實現的前提之一。
大規模并行計算 ——人腦中有數百至上千億個神經元,每個神經元都通過成千上萬個突觸與其他神經元相連,形成了非常復雜和龐大的神經網絡,以分布和并發的方式傳遞信號。這種超大規模的并行計算結構使得人腦遠超計算機,成為世界上最強大的信息處理系統。近年來,基于GPU(圖形處理器)的大規模并行計算異軍突起,使智能設備擁有了遠超CPU的并行計算能力。
從處理器的計算方式來看,CPU計算使用基于x86指令集的串行架構,適合盡可能快的完成一個計算任務。而GPU從誕生之初是為了處理3D圖像中的上百萬個像素圖像,擁有更多的內核去處理更多的計算任務。因此GPU天然具備了執行大規模并行計算的能力。云計算的出現、GPU的大規模應用使得集中化的數據計算處理能力變得前所未有的強大。
大數據 ——根據統計,2017年全球產生的數據總量達到了十年前的20多倍,海量的數據為人工智能的學習和發展提供了非常好的基礎。機器學習是人工智能的基礎,而數據和以往的經驗,就是人工智能學習的書本,以此優化計算機的處理性能。
深度學習算法 ——最后,這是人工智能進步最重要的條件,也是當前人工智能最先進、應用最廣泛的核心技術。深層神經網絡逐層訓練的高效算法,讓當時計算條件下的神經網絡模型訓練成為了可能,同時通過深度神經網絡模型得到的優異的實驗結果讓人們開始重新關注人工智能。
人工智能已經走出實驗室,開始改變人們生活的方方面面了,在不久的未來AI將會把我們帶入怎樣的智能時代,讓我們一起期待!