国产精品久久久久久久久软件,国产成人久久久精品二区三区,国产成人无码一区二区三区在线 ,大又大粗又爽又黄少妇毛片,国产精品成人aaaaa网站

中國自動化學會專家咨詢工作委員會指定宣傳媒體
新聞詳情

當人工智能變得勢不可擋

http://007sbw.cn 2015-06-15 16:59 來源:中國經(jīng)濟信息雜志

  人工智能也好,其他的科技蛻變也罷,都可以視為懸在人類頭上的達摩克里斯之劍,充滿危險且又讓人警醒。但是,又不能將工具性質(zhì)的人工智能看作是人類的代替品,就像特斯拉汽車創(chuàng)造出來是為了變革能源和人類的出行方式一樣,或許有人會駕駛他沖向熙攘的人群,可這與工具無關(guān),更推導不出人工智能的未來必定是兇險的。

  當下普遍的預(yù)言是,人類在下個世紀可能面臨人工智能機器人的大規(guī)模崛起,這些機器人的智力甚至可能超過人類。而另一邊廂,科學家與商業(yè)的力量,已經(jīng)推動智能技術(shù)向產(chǎn)業(yè)滲透,從而完成新技術(shù)時代資本與價值的積累。

  伴隨著人工智能發(fā)展的突飛猛進,人們(主要是科學家)對這項技術(shù)或創(chuàng)新的態(tài)度也是晦澀難明,分野嚴重。尤其是最近,在世界范圍的各大科技論壇、峰會上,都能聽到人們探討人工智能的當下與未來。

  霍金與馬斯克的憂慮

  著名的史蒂芬·霍金教授可能是對人工智能最充滿“敵意”的名人了,以他在科學界的影響力,讓人們對這種技術(shù)(人工智能(Artificial Intelligence) ,英文縮寫為AI。它是研究、開發(fā)用于模擬、延伸和擴展人的智能的理論、方法、技術(shù)及應(yīng)用系統(tǒng)的一門新的技術(shù)科學。)充滿抵觸,并不是難事。

  霍金在倫敦舉辦的“2015時代精神”會議上說,與其擔心誰來控制人工智能的問題,人類更應(yīng)該擔心人工智能到底愿不愿意受人類控制。不僅如此,霍金早前的觀點遠遠比這要振聾發(fā)聵。比如,人工智能可能會導致人類的滅絕,人工智能計算機可能在接下來的100年之內(nèi)就將人類取而代之。

  特斯拉創(chuàng)始人埃隆·馬斯克面對人工智能時卻是一種曖昧的態(tài)度。他一方面和霍金持著近似的態(tài)度,在公開發(fā)言時警告稱人工智能機器可能在短短五年之內(nèi)就會引發(fā)“一些非常危險的事件”;另一方面則在汽車無人駕駛技術(shù)方面走在了傳統(tǒng)汽車廠商的前面。馬斯克在接受《華爾街日報》采訪時透露,全自動無人駕駛汽車的技術(shù)將在五六年內(nèi)準備就緒,這類汽車對乘客和路人的傷害將遠低于目前的水平。馬斯克把能獨立思考的自動化機器比作“召喚魔鬼”,稱其是“我們潛在的最大威脅”。

  面對人工智能,人類怎么辦?

  在人工智能的發(fā)展可能帶來的威脅面前,人類的去路是當下最該思考的問題。過去一個世紀以來,面對科技的迅猛發(fā)展,有識人士都或多或少地進行過擔憂與疑慮。從克隆人到人工智能,人類仿佛始終處在抉擇的路口,在第三次工業(yè)革命,亦或是工業(yè)4.0面前,很多人都手足無措。

  資本市場存在風險,那么杠桿式融資就會取消嗎?面對風險,因噎廢食從來都不是一個最佳選擇。所以,選擇一個超越零和的對策,才是面對人工智能發(fā)展的正確態(tài)度。

  科技的發(fā)展,已經(jīng)難以形成設(shè)想中的通過一國或者一個機構(gòu)就能阻礙某種技術(shù)潮流的態(tài)勢。所以,面對人工智能宜疏不宜堵。馬斯克在面對他眼中的“最大威脅”時,用了“謹慎”兩個字,他說,“我們應(yīng)當建立一些監(jiān)管機制,可以是國家級的,也可以是世界級的,來保證人類不會干出什么傻事。”

  《經(jīng)濟學人》的文章也以亦喜亦憂的態(tài)度探討人工智能的未來,該雜志分析稱,目前所謂的人工智能都是應(yīng)用于某一具體領(lǐng)域狹隘的能力。歸根結(jié)底,是強大的數(shù)據(jù)處理能力而達到與人腦智力的“形似”,但至于如何模仿人的自主性、喜惡和欲求,成果則很少。

  “電腦還做不到隨心所欲地思辨、判斷、選擇,而這些都是人類智力的特征”。人工智能似乎并不像霍金和馬斯克渲染的那么強大,憧憬和擔憂的分野都在于未來人工智能是否還受人類控制。

  人類將軟件、程序植入硬件的智能機器人體內(nèi),使之獲得了人類的某些技能,并在特定指令之下完成判斷和執(zhí)行具體的任務(wù)。這種模式就像數(shù)學題一樣,把數(shù)字和字符輸入到電腦,然后靠電腦來進行運算??萍几淖兊模亲鲱}的速度與正確性,在可以想象的空間范疇內(nèi),還沒有超越人類去自主“出題目”的機器人。

  再杞人憂天一點,如果真的有機器人自己去發(fā)現(xiàn)一個畢達哥拉斯定理,然后再造一個系統(tǒng),制造出超越人類的物種,那才是值得擔憂的。一些科學人士也曾戲謔地說,如果你害怕制造出的機器人會取代你,那么好辦,你只需要拔掉電源就好了。

  惟一的答案,是在發(fā)展中解決問題

  霍金和馬斯克這兩個新老科技狂人,在不斷為人工智能的未來發(fā)聲表示擔憂之時,還聯(lián)合簽署了一個公開信,信中的觀點是人類應(yīng)該對人工智能的發(fā)展負起責任來,而不是放任。信中提醒科學家,務(wù)必提前阻止這種悲劇的發(fā)生,否則人類將因此滅絕。但是,相當一部分人都對此不以為然。

  回溯世界科技的發(fā)展史,科技革命已經(jīng)邁入了第三個階段。如今,隨著智能化的跨越式發(fā)展,日新月異的新科技已經(jīng)成為主流。然而,新科技革命的特征,不再像機器生產(chǎn)代替手工勞動那樣明顯和單一。但沒有疑問的是,未來的科學界如果要定義的話,人工智能和互聯(lián)網(wǎng)+一定是其主要內(nèi)容。就像每一次科技革命向前推進的時刻,人們都會擔憂一樣。機器取代了人工,那工人的命運將如何?生物技術(shù)的發(fā)展會帶來哪些惡果?回頭去看,這些擔憂往往是杞人憂天。面對科技未來的某種不確定性,連科學家自己都不知道未來將向何處去。踟躕不前和談虎色變,不是擁抱科學的最好方式。如果按照悲觀者的思路,那人類最適合回到茹毛飲血的蠻荒時代,沒有環(huán)境污染,沒有化學工業(yè),冷兵器戰(zhàn)爭仍將此起彼伏。相信,這也不是象牙塔里的科學家愿意看到的。

  最近,好萊塢的兩部電影都或多或少地講到了人工智能,一個是迪斯尼的《超能陸戰(zhàn)隊》,另一個是漫威工業(yè)的《復(fù)仇者聯(lián)盟之奧創(chuàng)紀元》,前者的主人公是一個叫做“大白”的定位于醫(yī)療健康的機器人,后者則是奧創(chuàng),由鋼鐵俠締造的希望他拯救人類的智能機器人。在電影里,大白拯救了人類,而奧創(chuàng)則脫離了人類的控制擁有了自己的思維,試圖毀滅人類。最終的結(jié)局我們都能想見得到,人類總是在瀕臨覆亡時被拯救。而拯救者,都是人性。

  人工智能也好,其他的科技蛻變也罷,都可以視為懸在人類頭上的達摩克里斯之劍,充滿危險且又讓人警醒。但是,又不能將工具性質(zhì)的人工智能看作是人類的代替品,就像特斯拉汽車創(chuàng)造出來是為了變革能源和人類的出行方式一樣,或許有人會駕駛他沖向熙攘的人群,可這與工具無關(guān),更推導不出人工智能的未來必定是兇險的。

版權(quán)所有 工控網(wǎng) Copyright?2025 Gkong.com, All Rights Reserved