人工智能是什么?用通俗的話來解釋,它是用計算機系統(tǒng),通過海量的數(shù)據(jù)和強大的運算能力來模擬人類思維的過程。聽上去,人工智能應(yīng)該是幫助電腦變得更聰明,好讓聰明的電腦幫助人類的一門學科——至少很多人工智能學界和商業(yè)公司的人是這樣認為的……
不過并非所有人都認為聰明的電腦只會幫助人類。因為對于很多人來說,他們頭腦中的人工智能,往往來自于科幻電影,是《Her》里面的薩曼莎,或是《終結(jié)者》里面的終結(jié)者——人工智能被打上了陰險、欺騙和替代人類、奴役人類的標簽。同樣,一些人工智能專家甚至已經(jīng)開始為人工智能的過快發(fā)展、未來將具備的強大智能水平而感到擔憂。
應(yīng)用人工智能技術(shù)的科技行業(yè)、研究人工智能的學界,至今尚未就人工智能是否值得擔憂而達成一致。最近,一些知名人士找到機會公開發(fā)表了自己的看法:
比爾·蓋茨:我也很擔心人工智能發(fā)展
本周三在論壇網(wǎng)站Reddit上參加“AMA”(Ask Me Anything)活動的時候,微軟創(chuàng)始人比爾·蓋茨被問到了關(guān)于人工智能發(fā)展的看法。他稱自己屬于很擔心超智能技術(shù)的人,并對人工智能的快速發(fā)展感到擔憂。
當被問到“2045年個人計算會發(fā)展到何種地步”的時候,蓋茨說,在接下來的三十年里,機器人技術(shù),以及人工智能的機器視覺、語音識別等方面技術(shù)都會迎來突飛猛進的發(fā)展。他認為,屆時電腦和機器人因為能力強大,將會被人類密集使用。
超智能的發(fā)展對于人類究竟會帶來多少實質(zhì)性的威脅?著名物理學家史蒂芬·霍金博士(Dr.Stephen Hawking)對于這個問題剛剛給出過“為人類帶來滅亡”的評論;而特斯拉創(chuàng)始人兼CEO 伊隆·馬斯克(Elon Musk)則認為人們應(yīng)該對人工智能保持高度警惕;曾發(fā)明多種袖珍電子產(chǎn)品的英國著名發(fā)明家克里夫·辛克萊(Clive Sinclair)也認為人工智能將會毀滅人類。
曾因創(chuàng)立微軟而懊悔沒能進行人工智能研發(fā)的比爾·蓋茨,也屬于這個隊伍。沒錯,這群赫赫有名的大人物已經(jīng)發(fā)出l提醒:要警惕、甚至遠離人工智能。
吳恩達:“人工智能毀滅人類”就是“炒作”(hype)
不過,在那些長期從事人工智能研究的專業(yè)人士看來,這項技術(shù)遠遠不值得擔憂。人工智能領(lǐng)域的人物、斯坦福大學人工智能實驗室主任吳恩達(Andrew Ng)就剛剛表達了跟馬斯克和蓋茨們不同的看法。
這個周五,百度在硅谷舉辦的The BIG Talk硅谷場上,這位剛剛加入百度不到一年的首席科學家,為自己的研究方向正義性做出了強有力的背書。在他看來,無論是殺手機器人,還是變得比人類更聰明的電腦,都不應(yīng)該是需要擔心的東西——因為它們暫時還不會出現(xiàn)。目前人們對于人工智能的討論,都只是在過度簡易的比較人腦和計算機神經(jīng)網(wǎng)絡(luò)。
盡管在外人看來,人工智能研究的是常人難以理解的高科技,也就是讓計算機去模仿人思考的科技,但其實,人工智能學界普遍有一種共識,就是人工智能實際上還處于非常低智的階段。以圖像識別、語音識別的深度學習系統(tǒng)為例:目前絕大多數(shù)的系統(tǒng)還處于大腦容量擴張的階段,絕對還沒有達到能夠思考的程度——絕大多數(shù)的系統(tǒng)所做的只是利用海量數(shù)據(jù),配合人類教給他們的邏輯,去計算結(jié)果。
另外,事實上,百度正在進行深度學習研究的角度是人機交互,這意味著一切研究最終希望實現(xiàn)的目標,產(chǎn)出的成果,都是為了優(yōu)化人與機器的交互。
吳恩達認為,人工智能最終將要改變的是人與科技交互的方式,無論是通過文字、圖像還是語言。也就是說,人在未來將繼續(xù)扮演最核心和最重要的角色。至于那些對人工智能的惡意的擔憂,大多是炒作而已。
在吳恩達看來,人工智能并不會帶給人類社會世界末日,它的真正挑戰(zhàn)在于其他的層面,比如就業(yè)——這和歷史上所有科技帶來的挑戰(zhàn)都是一樣的:技術(shù)取代傳統(tǒng)的人力和人工,變革越來越快,這些人就需要更快更多地接受訓練來重新找到工作,適應(yīng)新的生活方式。從這個角度上來說,來自學術(shù)界和政界對于“邪惡機器人”的炒作,實際上是個勞工話題。
這個情況在吳恩達(Andrew Ng)演講所用的Keynote當中也有所呈現(xiàn)。他在演講現(xiàn)場展示了一個“人工智能虛擬圈”:人工智能需要使用大量數(shù)據(jù)去做出一個優(yōu)秀的商業(yè)產(chǎn)品,從而獲得大量用戶,用大量用戶產(chǎn)生的大量數(shù)據(jù)再次去反哺系統(tǒng)——吳恩達清楚地明白這一點,盡管百度目前在人工智能方面還沒有優(yōu)秀的、業(yè)界知名的商業(yè)產(chǎn)品出現(xiàn)。
另兩位專家:人工智能有弊有利,人類應(yīng)謹慎前行
人工智能發(fā)展協(xié)會主席(Association for the Advancement of Artificial Intellegence, AAAI)Thomas Ditterich,和該協(xié)會前主席,現(xiàn)微軟研究院Redmond實驗室負責人Eric Horvitz,最近也在Medium上合著了一篇文章,深刻闡釋了人工智能的利與弊。
關(guān)于人工智能的討論甚囂塵上,但他們希望人們明白,沒有人工智能,人們的生活將回到很久以前的尷尬境地。比如,地圖軟件和GPS通過人工智能來幫助司機計算最優(yōu)路線、搜索引擎通過人工智能來提供搜索結(jié)果和答案……
這兩位專家認為,人工智能的發(fā)展是應(yīng)該的(顯而易見);但同時,人工智能的發(fā)展仍然存在三種風險情況,它們分別是:軟件錯誤、黑客攻擊和“魔法師學徒”式的誤解。
說白了就是:
首先,人工智能系統(tǒng),在遇到過去統(tǒng)計式機器學習過程當中從未遇到過的意外情況的時候,必須仍然能夠正常運行。也就是說,如果一個自動駕駛系統(tǒng)突然在路上遇到了系統(tǒng)無法識別的一個東西,它至少應(yīng)該不要把它忽視掉,而是能夠選擇合理的處理方法,無論是繞過還是減速。
其次,人工智能系統(tǒng)和平常的軟件并無大異,也會受到病毒等惡意軟件的危害,而由于人工智能系統(tǒng)的責任更大,比如自動駕駛系統(tǒng),掌握的是乘客的姓名,因此其抗干擾的能力理應(yīng)更強。
最后,人工智能系統(tǒng)所做的不應(yīng)該是嚴格執(zhí)行人的指令,而是明白指令代表的含義。比如,“帶我去機場,越快越好!”不意味著自動駕駛系統(tǒng)可以以300邁的速度飛馳,所行之徑慘死的過路者無數(shù)。換句話說,人工智能系統(tǒng)應(yīng)該按照人類設(shè)定的一系列基本原則去工作——至于都有哪些原則,看過《終結(jié)者》的人應(yīng)該都記得。
以上三點正是人工智能的弊端,但它們并非無法克服。這兩位專家希望科技業(yè)界和學界在發(fā)展人工智能技術(shù)的同時,牢記它的弊端,在任何時候保持警惕,在構(gòu)建系統(tǒng)的時候千萬保障軟件的穩(wěn)定性和安全性。因為,總有一天,人類的性命安危會被交到人工智能系統(tǒng)手里,在那發(fā)生之前,研究者必須要保證,人工智能給人們帶來的是安,而不是?!?/font>
杭州蒙特網(wǎng)站建設(shè)敢問大家,三種觀點,你同意哪一種?是可怕的還是安好的?是弊還是利呢?
©2000-2022 杭州蒙特信息技術(shù)有限公司版權(quán)所有
Mountor、蒙特是Mountor Corp.的注冊商標。