国产一二三四在线观看,欧美黑人粗硬大在线看,一级毛片在线看在线播放,精品外国呦系列在线观看,日本aa大片在线播放免费看,亚洲产国偷v产偷v自拍自拍,99精品久久99久久久久久

艸少女 當陳淵所到達其他星球之后

    當陳淵所到達其他星球之后也是開始他說的一直在遵循的計劃。

    陳淵的想法很簡單,那就是他一直都在想這一件事首先不僅僅是在這里重新建立一個新的生活點,還有一點也很重要,那就是透過這次他已經(jīng)看出來了,人類的未來或許還需要改變。

    但說只是基因工程還并不完美,因為你只要不是刀槍不不入水火不侵的話,那你就還一定是有弱點的。

    所以以后遇到了危險人類還是不能親自上。

    陳淵現(xiàn)在的想法是他能不能去制作出一個可以代替人的工作的機器人。

    雖然不一定能夠成功,但也總比沒有強不是嗎?

    而且陳淵也知道人類在某些方面還是很缺乏進取心的,如果能夠擁有這么一個工作機器人的話,或許會給人類一個更好的未來。

    當然,這個工作機器人的構(gòu)造是非常復(fù)雜的。

    陳淵所要做的就是將這個工作機器人的構(gòu)造給記錄下來,然后通過各種方式去制作這個機器人。

    陳淵現(xiàn)在所掌握的技術(shù)就是一種叫做'光腦'的技術(shù)。

    這是一個相對來說十分高級的技術(shù),它不僅僅能夠?qū)⒛繕说乃季S意識傳遞回來,更能讓人類的思維模塊進行運算。

    不過這樣做也是有著風險的,一旦失敗,那人類的大腦也就真的被破壞掉了。

    陳淵不怕死,因為他早晚都會有這么一天。

    但他卻無法接受一個人類被毀滅掉的畫面,而這也是他為什么一直沒有選擇進行這個工作的原因。

    不過現(xiàn)在陳淵已經(jīng)有了一個新的打算,那就是他準備用自己所擁有的這種特殊的光腦,來幫助人類創(chuàng)造一種全新的生活體系。

    當然這是有前提的。

    那就是陳淵必須要找到合適的載體和設(shè)備才行。

    不然的話,就算是這種光腦再怎么厲害,也無法將人類的身體和思維給轉(zhuǎn)換過來。

    而這種載體和設(shè)備又要從哪里得來呢?

    當然是人類自己去尋找。

    但這個世界實在是太小了,這個世界上除了人類之外根本就沒有任何的生命體。

    想要找到這樣的生物載體,談何容易???

    但現(xiàn)在陳淵有一種預(yù)感,他相信他一定能夠找到。

    不過就現(xiàn)在來說,這些已經(jīng)不重要了。

    當下,陳淵最要緊的還是趕緊想辦法研究出智能智能機器人的核心才是重點。

    這個過程必然是不簡單的,說實話,就算是陳淵也沒有完全的把握。

    但是魯劍他們卻非常的看好。

    可是陳淵內(nèi)心也一時間不知道該說些什么。

    實際上是不知道做些什么才對,

    在召集眾人所展開相關(guān)討論時,各專家也都提出了相關(guān)的意見。

    “所謂的機器人,最重要的是邏輯分析和推理能力,并且能夠預(yù)測行為所導致的后果,以判斷人類下達的指令是否和任何一條定律相悖。

    也就是說,我們必須把人類思考行動的每一步,用邏輯算法清晰地描述出來,并且這套算法不可以存在任何矛盾,把這樣邏輯算法輸入到機器人系統(tǒng)當中,這樣機器人才能按照這套算法進行相應(yīng)的人類活動。但是人類的活動千變?nèi)f化,而且我們有所謂的直覺、第六感,這種判斷其實是有一定的邏輯依據(jù),但目前我們都很難用算法卻一一描述出來?!?br/>
    “舉一個人類思考簡單的例子,選擇一家餐廳吃飯,我們會考慮距離、食物味道、環(huán)境、停車位、候餐時間等因素。如果我們將其變成一套可以讓機器人執(zhí)行的算法,但機器人是不能理解什么才是合適距離,什么才是滿意的環(huán)境,什么才是好吃的食物。

    也就是說我們必須要用定量的語言表述。例如距離在3公里范圍內(nèi),大眾點評食物味道和環(huán)境因素大于或等于4星,停車位不少于50個,平均候餐時間不長于15分鐘。這樣,機器人才能夠做出類似于人類的判斷。但是算法之間確極有可能存在矛盾。”

    雖說現(xiàn)在華夏技術(shù)高度發(fā)達,但人工智能這一方面還沒有完全掌握精髓。

    如果僅僅是說商的話,那根本就沒有什么好講的。

    畢竟商是系統(tǒng)所賦予的東西。

    就算是現(xiàn)在陳淵還想再弄出一個商來,壓根就不可能,甚至說非常的困難。

    例如在經(jīng)典的哲學問題上——“你是一輛快速行走的列車上的列車長,列車的剎車已經(jīng)壞了無法使用,你發(fā)現(xiàn)前方軌道上有5個修路工人,向左拐的軌道中有1個修路工人,此時你可以選擇向左拐或者是繼續(xù)向前行駛。這時候你應(yīng)該怎么辦?”

    我們的無人駕駛汽車遇到這種情景應(yīng)該如何處理?

    這種情況下無論如何都要違背阿西莫夫的機器人三大定律。這種情況下,我們無法用清晰的邏輯算法描述應(yīng)該如何處理,因為作為人類本身,我們都無法說明哪一種情況才是真正正確的選擇。

    但是,我們回頭想一下,把所有邏輯關(guān)系都清晰列舉出來讓機器人執(zhí)行的這種模式是否正確?;仡^看一下,我們對小孩的教育,難道我們是把所有的規(guī)矩都列出來,然后再每一個小孩子去執(zhí)行的嗎?

    顯然不是。

    人類一生里面的學習,有理論知識的學習,也就是說確實有各種成形的方法和理論,告訴我們一步一步應(yīng)該怎么做,但是這是不多的,完全不變通的理論應(yīng)用是少之又少的。其實人類的學習過程中,更多是感知活動。

    例如,小孩子學說話的過程,其實就是不斷地從視覺口型和聽覺聲音上,去不斷地感受,其大腦通過無數(shù)次情景數(shù)據(jù)的收集,最后歸納出不同的情景應(yīng)該說什么話,并在之后的應(yīng)用中不斷地修正。過程,就是現(xiàn)在我們所說的大數(shù)據(jù)應(yīng)用的過程。

    所謂大數(shù)據(jù),就是數(shù)量得足夠大,把數(shù)據(jù)的偏差能基本消除,得到一個相對規(guī)律的趨勢。回到之前的例子當中,在選擇一家餐廳吃飯時,如果收集了大量人們的用餐數(shù)據(jù)(,那么這個機器人就可以給我推送一些較為符合我要求的餐廳。

    也就是說,這個機器人不再需要完整地了解我為什么這么選擇,不知道了解我整個思考的邏輯過程,也不需要輸入一套完整的不矛盾的算法規(guī)則,它就可以為我推薦一些合適的餐廳。它收集的用餐數(shù)據(jù)越多,那推薦餐廳的準備性就越高,出現(xiàn)偏差的可能性就越小。

    又如在剛剛的哲學桉例中,我們也不需要告訴機器人,是應(yīng)該直行撞向5個修路工人,還是應(yīng)該向左轉(zhuǎn)撞向1個修路工人。它會收集相關(guān)的數(shù)據(jù),知道這種情況下大多數(shù)人是怎么選擇的,從而做出自己的決定。

    當然我們不能保證大多數(shù)人的行為就是正確的,但是我要說的是,這種大數(shù)據(jù)的應(yīng)用,恰恰是人類通過感知行為來進行學習的過程,具有這種學習模式的機器人才能真正稱之為智能機器人。

    如果我們將某個人一生里所有行動的信息,包括起床時間、說話語氣等全部生活習慣都以數(shù)據(jù)信息的方式進行記錄,并將這些數(shù)據(jù)輸入機器人的系統(tǒng),那么理論上可以理解為這個機器人的行為舉動將會與人類A的行為相近,當輸入的信息量無限大時,機器人的行為就無限接近于人類A。

    盡管收集的人類A的行為數(shù)據(jù)當中必然會存在矛盾之處,但是當數(shù)據(jù)足夠大時,這些偶然的偏差性就會被排除掉,使得機器人的行為無限接近于人類A。而且機器人并不單純地去模彷人類A的行為,它應(yīng)用的其實是大數(shù)據(jù)的預(yù)測功能,也就是說這個機器人可以在沒有遇到過的情景中按照人類A的思維方式做出反應(yīng)。

    舉個例子,假設(shè)人類A實際上是生活是16世紀的歐洲人,在21世紀的華夏的這個機器人也可以知道做出人類A穿越來到21世紀的華夏后可能會有的反應(yīng)。

    那么,智能機器人是否能夠超越人類的智慧,完全取代人類呢?

    在談?wù)摰竭@個問題時,陳淵沉默了片刻。

    而后他說道。

    “對此給出的答桉是兩面的。

    我認為,未來智能機器人是可以超過單個人的智慧的,因為智能機器人集合的智慧決非是來自于一個人,它是將許多人許多不同領(lǐng)域的知識和經(jīng)驗進行集合,因此它是很有可能超過單個人的智慧的。

    但是,正由于它是通過這種大數(shù)據(jù)的預(yù)測應(yīng)用模式,因此它能預(yù)測到的是一種漸變性的變化,按原有的思維模式猜想可能會遇到的問題,但是它是很難存在天馬行空的突破性創(chuàng)新的?!?br/>
    而且機器人往往還有著所謂的三大定律。

    這就要提到艾薩克·阿西莫夫了。

    他是熊國科幻作家、科普作家、文學評論家,美國科幻黃金時代的代表人物之一,是人類歷史上最偉大的科幻家之一。

    他與阿瑟·克拉克、羅伯特·海因來因并稱為“世界科幻三巨頭”;與儒勒·凡爾納、赫伯特·喬治·威爾斯并稱為科幻歷史上的三巨頭;他還獲得了星云終身成就大師獎。

    聯(lián)邦政府授予他“國家的資源與自然的奇跡”稱號,以表彰他在“拓展全人類想象力”方面的杰出貢獻。他一生寫了500多本書,頗有些“魔幻”。

    即使有的朋友沒有聽過他的名字,但是他的作品你肯定聽說過——其作品中以《基地系列》《銀河帝國三部曲》和《機器人系列》三大系列被譽為“科幻圣經(jīng)”。他提出的“機器人學三定律”被稱為“現(xiàn)代機器人學的基石”。

    阿西莫夫的高明之處在于,他不僅在這本書中開創(chuàng)了“機器人學三大法則”這一全新的科幻邏輯,更是借助機器人的“失?!睜顟B(tài)來“顛覆”自己提出的法則。

    一邊是顛覆,另一邊則就是破解,每一篇故事的核心沖突,都來自破解“機器人學三大法則”的漏洞,這“破解”也是讀者和主人公一起經(jīng)歷一場緊湊而又風趣的“推理”。每個故事的內(nèi)容都短小而精悍,但卻讓人回味無窮,可能這就是科幻的魅力。

    所謂三定律便是。

    第零定律:機器人必須保護人類的整體利益不受傷害。

    第一定律:機器人不得傷害人類個體,或者目睹人類個體將遭受危險而袖手不管,除非這違反了機器人學第零定律。

    第二定律:機器人必須服從人給予它的命令,當該命令與第零定律或者第一定律沖突時例外。

    第三定律:機器人在不違反第零、第一、第二定律的情況下要盡可能保護自己的生存。

    這3+1條定律保障了智能機器人不會造反。

    但是這個機器人定律真的是無懈可擊的嗎?

    陳淵并不這樣覺得,如果他能和阿莫西夫一起暢談,說不定兩人還能商討出一些成績。

    但這個定律不是沒有漏洞。

    三定律的漏洞首先人們最常質(zhì)疑的就是三定律的實現(xiàn)問題——阿西莫夫里面的機器人都是有獨立思維的。三大定律的前提就是對于能夠自主學習思考解決問題的機器人,或者叫強人工智能,他們自然就能像人類一樣判斷問題,至于怎么造出這樣的機器人?不關(guān)家的事。

    同時還有很多人拿道德法律和三定律比較,然而違反法律是要由第三者來懲罰的,想想那么多的警匪片就知道了;違反道德最多就是受到譴責,心態(tài)好點的話啥事沒有。三定律是內(nèi)置在機器人系統(tǒng)中的,違反了的話機器人自己就會“自殺”,就算機器人能力再高,除非他能自己修改自己的固件,否則都不可能跳出三定律。

    但三定律真的是無懈可擊的嗎?

    其實機器人三定律的出處——阿西莫夫機器人系列——其實寫了一大堆方法來推翻定律。

    其中最簡單的一個就是重新定義,你可以重新定義何為“人類”,你也可以重新定義“輕重傷”。

    同時看過銀河帝國的話,一定會記得葛蘭.崔維茲,當初之所以選擇會選擇蓋亞,而不是謝頓計劃是因為謝頓計劃的默認前提是:銀河中,只有人類這一唯一的智慧物族。

    其實,機器人三大定律也被限制在這種錯誤的前提條件下。不然,J.丹尼爾.奧利瓦為什么要和菲龍大腦融合?