人工智能AI里程碑:計算機圖形學(xué)
在過去的十年里,圍繞人工智能的突破,投資和企業(yè)家活動的爆炸式增長完全是由深度學(xué)習(xí)驅(qū)動的。深度學(xué)習(xí)是一種復(fù)雜的統(tǒng)計分析技術(shù),用于發(fā)現(xiàn)大量數(shù)據(jù)中的隱藏模式。1955年創(chuàng)建的術(shù)語(人工智能)被應(yīng)用于(或錯誤地應(yīng)用于)深度學(xué)習(xí),這是一個更高級的機器學(xué)習(xí)版本,旨在訓(xùn)練計算機執(zhí)行某些任務(wù)。這個術(shù)語是1959年創(chuàng)建的。
深度學(xué)習(xí)的最新成功是由于大量數(shù)據(jù)(大數(shù)據(jù))可用性的增加和圖形處理單元(GPU)的出現(xiàn),顯著增加了訓(xùn)練計算機數(shù)據(jù)的廣度和深度,減少了訓(xùn)練深度學(xué)習(xí)算法所需的時間。
大數(shù)據(jù)一詞最早出現(xiàn)在1997年10月由MichaelCox和Davidelsworth撰寫的計算機科學(xué)文獻(xiàn)中。本文發(fā)表在IEEE第八屆可視化會議論文集中,核心外可視化應(yīng)用控制需求分頁。他們寫道:可視化給計算機系統(tǒng)帶來了一個有趣的挑戰(zhàn):數(shù)據(jù)集通常很大,這增加了主內(nèi)存、本地磁盤甚至遠(yuǎn)程磁盤的容量。我們稱之為大數(shù)據(jù)問題。當(dāng)數(shù)據(jù)集不能容納在主存儲器(核心)中,甚至不能容納在本地磁盤中時,最常見的解決方案是獲取更多資源。這個術(shù)語也被學(xué)術(shù)界以外的術(shù)語所使用。
SGI創(chuàng)始人吉姆·克拉克于1974年在計算機圖形之父伊萬·薩瑟蘭的指導(dǎo)下,在猶他大學(xué)完成了博士論文。克拉克后來成立了Netscapecomunications,其成功的網(wǎng)絡(luò)瀏覽器和1995年的IPO引發(fā)了互聯(lián)網(wǎng)熱潮。1989年,蒂姆·伯納斯·李(Timberners-Lee)發(fā)明了網(wǎng)絡(luò),成功使世界數(shù)十億人成為數(shù)字?jǐn)?shù)據(jù)的消費者和創(chuàng)造者。
2007年,普林斯頓大學(xué)計算機科學(xué)家fei-feili和她的同事開始組裝imagenet。imagenet是一個帶有注釋圖像的大型數(shù)據(jù)庫,旨在幫助研究視覺對象識別軟件。五年后,也就是2012年10月,由多倫多大學(xué)研究人員設(shè)計的人工神經(jīng)網(wǎng)絡(luò)在imagenet大規(guī)模視覺識別挑戰(zhàn)中的錯誤率僅達(dá)到16%,大大超過了25%。一年前最好的進(jìn)入表明人工智能的興起。
大數(shù)據(jù)真的很大。RJTMoris和BJTruskowski在《存儲系統(tǒng)的發(fā)展》一書中表示,1996年,數(shù)字存儲在存儲數(shù)據(jù)方面比在紙上更具成本效益。2002年,數(shù)字信息存儲首次超過非數(shù)字存儲。根據(jù)馬丁·希爾伯特和普里西拉·洛佩茲的世界存儲、通信和計算信息的技術(shù)能力,從1986年到2007年,世界信息存儲能力以每年25%的復(fù)合年增長率增長。他們還估計,1986年,99.2%的存儲容量是模擬存儲,但2007年,94%的存儲容量是數(shù)字存儲,這完全顛倒了角色。
2000年10月,加利福尼亞大學(xué)伯克利分校Peterlyman和Halvarian發(fā)布了多少信息?這是第一個全面的研究,用計算機存儲量量量化世界上每年創(chuàng)建的新信息和原始信息總量(不計算副本)。1999年,世界各地產(chǎn)生了1.5艾字節(jié)的原始數(shù)據(jù)。2007年3月,Johngantz、Davidreinsel和IDC的其他研究人員發(fā)布了第一項研究,估計和預(yù)測每年創(chuàng)建和復(fù)制的數(shù)字?jǐn)?shù)據(jù)數(shù)量-2006年為161艾字節(jié)。據(jù)估計,該數(shù)字將增加6倍,達(dá)到988艾字節(jié)。2010年,或每18個月翻一番。
信息爆炸(據(jù)牛津英語詞典稱,該術(shù)語于1941年首次使用)已成為大型數(shù)字?jǐn)?shù)據(jù)爆炸。然而,可用數(shù)據(jù)的數(shù)量只是使深度學(xué)習(xí)成功的兩種催化劑之一。另一個是GPU。
雖然深度學(xué)習(xí)算法的開發(fā)及其實際應(yīng)用在20世紀(jì)80年代和90年代穩(wěn)步發(fā)展,但它們受到計算機能力不足的限制。1986年10月,Davidrumelhart、Geoffreyhinton和Ronaldwilliams出版了《反向傳播錯誤學(xué)習(xí)表達(dá)法》,描述了一個新的學(xué)習(xí)過程,即反向傳播,用于神經(jīng)元樣單元網(wǎng)絡(luò)。在深度學(xué)習(xí)的發(fā)展中。三年后,Yannlecun和AT&T貝爾實驗室的其他研究人員成功地將反向傳播算法應(yīng)用到多層神經(jīng)網(wǎng)絡(luò),以識別手寫郵政編碼。然而,鑒于當(dāng)時的硬件限制,培訓(xùn)網(wǎng)絡(luò)大約需要三天時間(與以前的工作相比有了很大的改進(jìn))。
大數(shù)據(jù)誕生的計算機圖形學(xué)得以挽救。到了20世紀(jì)90年代,實時3D圖形在街機、計算機和游戲機游戲中變得越來越普遍,導(dǎo)致對硬件加速3D圖形的需求增加。索尼在1994年推出家用視頻游戲機PS1時,首先稱GPU為幾何處理單元。
視頻游戲渲染需要快速并行執(zhí)行許多操作。圖形卡具有較高的平行度和較高的內(nèi)存帶寬,但與傳統(tǒng)的CPU相比,時鐘速度較低,分支能力較低。巧合的是,在人工神經(jīng)網(wǎng)絡(luò)上運行的深度學(xué)習(xí)算法需要類似的——平行性、高內(nèi)存帶寬和無分支。
到2000年代末,許多研究人員已經(jīng)證明了GPU在深度學(xué)習(xí)(尤其是人工神經(jīng)網(wǎng)絡(luò)訓(xùn)練)中的實用性。由新編程語言(如NVIDIACUDA)支持的通用GPU已應(yīng)用于各種深度學(xué)習(xí)任務(wù)。這些應(yīng)用程序中最明顯的是2012年Imagenet挑戰(zhàn)賽的冠軍。
2020年3月18日,計算機技術(shù)協(xié)會(ACM)將Patrickm.(Pat)Hanrahan和Edwine.(Ed)Catmull提名為2019ACMAM圖靈獎獲得者,表彰其對3D計算機圖形學(xué)的基本貢獻(xiàn),以及這些技術(shù)對電影制作等應(yīng)用中的計算機圖像(CGI)產(chǎn)生革命性影響。
根據(jù)ACM新聞稿,今天,3-D計算機動畫電影代表了全球電影行業(yè)的流行類型,價值1380億美元。3-D計算機圖像對于蓬勃發(fā)展的視頻游戲行業(yè)、新興的虛擬現(xiàn)實和增強現(xiàn)實領(lǐng)域也至關(guān)重要。Catmull和Hanrahan做出了開創(chuàng)性的技術(shù)貢獻(xiàn),這仍然是當(dāng)今CGI圖像開發(fā)模式不可或缺的一部分。此外,他們對編程圖形處理單元(GPU)的看法不僅影響了計算機圖形學(xué),而且影響了數(shù)據(jù)中心管理和人工智能等各個領(lǐng)域。
像吉姆·克拉克一樣,卡特姆是伊萬·薩瑟蘭的學(xué)生,1974年獲得猶他大學(xué)博士學(xué)位。正如羅伯特·里夫林在1986年的《算法圖像:計算機時代的圖形視覺》中所寫,現(xiàn)代計算機中幾乎每一個有影響力的人圖形社區(qū)要么通過猶他大學(xué),要么以某種方式接觸。
在2010年對Pathanrahan的采訪中,Catmul描述了UU工作環(huán)境:
戴夫·埃文斯是系主任,伊萬在教書,但他們的公司埃文斯和薩瑟蘭花了所有多余的時間。這些學(xué)生幾乎是獨立的,這是我真正的肯定,因為學(xué)生必須自己做一些事情。我們期待創(chuàng)作原創(chuàng)作品。我們處于前沿,我們的工作是擴大它。他們基本上說:你可以每隔一段時間聯(lián)系我們,我們會聯(lián)系你,但我們會關(guān)閉這家公司。
我認(rèn)
上一篇: 武漢綜合布線電纜放置技巧有哪些?