當前位置:律師網大全 - 專利申請 - 反向研究與專利的矛盾和沖突

1

艾,妳真的醒了?

人工智能,會醒來嗎?

這是壹個古老而又新穎的話題。

“深度學習”固有的不可預測性加深了這種焦慮。

“神經網絡”的生物學類比,讓“AI黑匣子”更加令人擔憂。

近日,壹位谷歌工程師再次引爆話題:AI醒了嗎?

2022年6月,谷歌工程師萊莫因表示,在與AI“LaMDA

反向研究與專利的矛盾和沖突

1

艾,妳真的醒了?

人工智能,會醒來嗎?

這是壹個古老而又新穎的話題。

“深度學習”固有的不可預測性加深了這種焦慮。

“神經網絡”的生物學類比,讓“AI黑匣子”更加令人擔憂。

近日,壹位谷歌工程師再次引爆話題:AI醒了嗎?

2022年6月,谷歌工程師萊莫因表示,在與AI“LaMDA

反向研究與專利的矛盾和沖突

1

艾,妳真的醒了?

人工智能,會醒來嗎?

這是壹個古老而又新穎的話題。

“深度學習”固有的不可預測性加深了這種焦慮。

“神經網絡”的生物學類比,讓“AI黑匣子”更加令人擔憂。

近日,壹位谷歌工程師再次引爆話題:AI醒了嗎?

2022年6月,谷歌工程師萊莫因表示,在與AI“LaMDA”的聊天中,他發現後者的回答極具個性化,並認為AI已經“覺醒”。

為此,寫了壹份21頁的調查報告,試圖得到高層對艾人格的認可。

不過,谷歌高管目前還沒有表態,希望得到更明確的認可。

然而,萊莫因似乎是壹部科幻電影的主角。他不死心,將自己與艾的聊天記錄公布於眾,引起軒然大波。《華盛頓郵報》跟進報道後,甚至在全世界炸了圈。

AI真的醒了嗎?爭議仍在繼續。

不管真相是什麽,有壹點是肯定的:

因為深度學習和神經網絡的加持,人工智能變得越來越“不可預測”。

2

那壹夜,人類安然入睡。

關於AI覺醒,讓人們想起了六年前的另壹件事。

2065 438+06 3月13日,人類和AI在圍棋上進行了壹場終極智力較量。

在此之前,AI與人類的較量是成功的。

但人類認為圍棋是AI無法逾越的天花板。

因為可測宇宙的原子總數約為10 80,要走的路是2.08 * 10 170,所以AlphaGo靠計算量和算力是贏不了的。那麽,壹個有創造力的人類怎麽會被AI打敗呢?如果圍棋輸給了AI,說明它完成了圖靈測試。

然而前三局,李世石連連失利,震驚了全世界。

第四局李世石判斷黑天有棋,下了壹盤白78。李世石,壹部史詩般的“上帝之手”,體現了人類巔峰時期的直覺力、計算力和創造力。這也是人類尊嚴的最後壹戰。

那壹年,壹個作者寫了上面的壹段話(有所修改),提到“23年後,無壹幸免”。科學家建立了壹個數學模型,判斷人工智能可能在2040年達到普通人的智力水平,這將導致壹場智力爆炸。

面對越來越流行的AI,機器即將取代人類,AI正在迅速膨脹。

五年後,人類已經朝著“母體”大步邁進。

那麽18之後,真的無壹幸免?

AI的另壹面:不夠穩定。

以上兩件事本質上都是對AI覺醒的擔憂。

壹個有自由意誌的AI是不可信的,最終會威脅到人類。

霍金警告人類要正視人工智能帶來的威脅。

比爾·蓋茨認為人工智能是在“召喚魔鬼”。

《2001太空漫遊》中,超級計算機HAL9000無情地在宇宙中抹殺人類。

在《黑客帝國》中,人類被AI囚禁在《黑客帝國》中。

但是,實事求是地說,對AI覺醒的不信任仍然只是人類的猜測。

科幻電影中的描述雖然殘酷冷酷,但並沒有得到普遍的證實。

但AI的另壹個“不可信”是真實存在的。

它不是太聰明、太聰明或太有意識,而是不夠穩定。

這種不穩定的後果真的很“可怕”。

人工智能“失敗”的例子很多,這是AI不穩定的壹面。

這才是真正“不可信”的地方,才是AI對人類真正的威脅。

我們不想看到AI的“覺醒”,但也接受不了人工智能的“輕率”。

人類需要的是壹個可信的AI。

所以,人類需要壹個“可信的AI”。

人工智能是聰明還是愚蠢可能並不重要。

AI是進化還是退化,暫時可能只是個偽命題。

人類需要的是壹個可靠的助手,壹個值得信賴的機器助手。

我是妳的創造者,妳要聽我的,不能鬧事。

阿西莫夫在70年前提出了“機器人三定律”:

這是人類在AI倫理思維上的方向。

可以稱之為人工智能社會的道德準則。

對於人類來說,可信度是我們對AI最重要的需求。

如果從貝葉斯-拉普拉斯定理追溯人工智能的源頭,目標是解決“逆概率”問題,其實本質是解決AI的可靠性問題。

如果不能可信,AI可能會咬人。

最起碼AI要陪著我們保證人類的兩點:生命安全和財產安全。

以自動駕駛為例,如果人工智能以99.99%準確率的概率來計算,0.01%的錯誤率還是會很嚇人。如果未來城市中有100萬輛自動駕駛汽車,即使錯誤率為0.01%,仍然會有100輛隱藏車輛對人類生命安全構成威脅。

如果不能擁有可信的AI,我們自然無法確定人工智能帶給我們的是技術進步還是無數的潛在威脅。

但其實是人工智能領域最有價值的航空燈,也是現在科技公司都在追求的方向。

什麽是可信AI,

這些16的技術兄弟在幹什麽?

那麽,什麽是可信AI呢?

可能很多人還不知道,所以我們要先明確這個定義。

我們可以先看壹個節目《Burn,天才程序員2可信AI》。

這個綜藝節目第壹季在豆瓣評分8.0,讓人腦洞大開。

在第二季中,1 6個AI技術的家夥分成四隊,在“小黑屋”裏待了四天三夜,完成了60小時的任務挑戰。

在比賽中,他們需要與“黑產”進行無數次的較量,培養出壹個幫助人類的“可信AI”,打敗“黑產”,最終決出最強隊伍。

關於節目技術的綜藝節目在中國乃至世界都是非常稀缺的。

壹方面,程序和代碼本身太硬核,壹般人理解不了。

另壹方面,節目劇本設定的沖突比其他綜藝節目更難。

但《燒掉它,天才程序員2可信AI》通過“反欺詐”的實際場景,構建了程序的遊戲邏輯。

16 AI技術的家夥們需要面對欺詐交易識別和聯合反欺詐的挑戰。

通過AI與攻防的配合,覆蓋整個反詐騙環節。

比賽期間,程序員通過創造“可信AI”完成“技術反欺詐”。

團隊生產的哪種算法和模型的數據識別準確率和覆蓋率更好,就能贏得比賽。

雖然沒有《黑客帝國》那麽深刻宏大,但也沒有人工智能那麽發人深省。

但是《Burn,天才程序員》通過真實的應用場景解決了現實生活中的實際問題。

當妳看完整個程序的時候,妳就會明白,這就是可信的AI:根據已有數據建立智能模型,非常穩定地解決現實問題。

可信AI的技術應用非常廣泛,反欺詐就是其中壹個重要的應用場景。

可信AI並不那麽遙遠,它近在咫尺。它沒有那麽神秘,它往往是妳的小助手。

目前基於神經網絡的AI技術非常酷,占據了AI話題的最高點,提供了太多具有創造性和神秘性的想象空間,也是很多AI技術人員仰望的聖地。但是它面臨著無法解釋、魯棒性差、過度依賴數據等諸多問題,隱藏著許多潛在的危害。

可信AI的存在就是為了解決這些“信任危機”問題。

如果說基於神經網絡的AI技術具有強烈的理想主義色彩,那麽基於大數據整理的AI技術則是腳踏實地、實事求是的執行者。

可信人工智能的技術特征

要真正理解可信AI對人類的幫助,需要從技術底層開始。

可信AI有四個技術特征:健壯性、隱私保護、可解釋性和公平性。

01

穩健性

魯棒性是指系統在異常和危險情況下的生存能力,以及算法的穩定性。

1,前者是指系統抵禦攻擊的能力,比如計算機軟件在輸入錯誤、磁盤故障、網絡過載或惡意攻擊的情況下,能否不崩潰或死機。舉個例子,如果把壹個AI模型比作萬裏長城,那麽它的魯棒性就是長城在面對惡劣天氣(如臺風)和自然災害(如地震)的情況下,經過人工轟炸,仍然能夠不輕易倒塌。

2.後者指的是算法本身在AI模型中的穩定性。如果加上被幹擾的熊貓照片,AI模型的“眼睛”很容易被繞過,說明其魯棒性差;比如在欺詐交易中,由於作案手法不斷升級,基於之前數據訓練的模型可能面臨新的風險數據帶來的穩定性考驗,需要不斷叠代來保證模型的分析識別能力。

以支付寶為例。支付寶每天有幾億筆交易,而且不是針對散戶,而是針對職業黑團夥。他們可能以兩種方式攻擊:

為了保證資金安全,螞蟻集團引入了“智能遊戲攻防”技術,具有提前模擬、訓練、彌補風險知識和模型的能力。使用該技術的AI模型魯棒性大大提高,實現“左右互搏”不僅可以更智能地“攻擊”,還可以更安全地“防範”。

02

秘密保護

傳統的數據保護方式客觀上形成了“數據孤島”,影響了醫療、金融等領域的協同作戰,也制約了AI技術和產業的發展。

因此,擴展數據值的隱私計算技術,實現“數據定值動態化”就顯得尤為重要。

在人工智能領域,聯邦學習作為壹種新的機器學習模型和算法,被提出來解決數據孤島問題。在保證每個參與者不泄露原始數據,即數據不離開域的前提下,由多方共同對數據建模,實現數據的可用性和不可見性,進而實現“數據不動”。

03

可解釋性

人類對壹切未知的事物總會有壹種莫名的恐懼。

如果人工智能的行為無法解釋,只有結果沒有過程,那麽它就像壹個盲盒,妳永遠不知道放出來的是阿拉丁還是潘多拉。

AI模型是很多重要決策的重要依據,它的思維過程在很多應用中不可能是黑匣子。

人類希望知道模型背後的邏輯,獲得新的知識,在它出現問題的時候踩剎車,以保證AI思考的過程和結果是合法合法的。

這需要結合數據驅動和模型推理能力,以產生可解釋的結果。

04

公平

ai公平性是可信AI的重要組成部分。

只有實現“公平”,才能真正推動技術造福全社會。

壹方面,公平需要關註弱勢群體,兼顧落後地區的發展,在社會倫理的原則下優化AI,通過AI技術讓老年人、殘疾人和欠發達地區的用戶享受到數字經濟時代的價值。

另壹方面,公平要思考如何從技術上思考如何降低算法、數據等因素可能造成的AI決策偏差。

健壯性、隱私保護、可解釋性和公平性。

這是可信AI的四個基本原則。

今天,可信AI的發展已經成為壹個全球性的知識。

尤其是領先的科技公司,他們要為用戶服務,不能出錯。

微軟、谷歌、螞蟻、JD.COM、騰訊、師曠等科技公司都在積極開展可信人工智能的研究和探索。

其中螞蟻在可信AI方面有很多技術優勢。從2015開始學習至今,他們已經完成了7年可信AI技術的積累。

權威專利機構IPR daily 2021發布的《人工智能安全與可信關鍵技術專利報告》顯示,螞蟻集團旗下支付寶在該領域的專利申請量和授權量均居全球第壹。

可信人工智能的應用探索

基於可信AI的上述特征,有各種各樣的應用場景。

人工智能廣泛應用於醫療、教育、工業、金融等多個領域。,而算法安全、數據濫用、數據歧視等問題也層出不窮。目前,AI技術的主要矛盾已經轉化為人們對AI應用範圍日益增長的需求與AI發展的不可靠、不穩定之間的矛盾。

2018年,IBM開發了多個AI可信工具,用於評估和測試人工智能產品在研發過程中的公平性、健壯性、可解釋性、可問責性和價值壹致性。之後,IBM將這些工具捐贈給Linux基金會,成為壹個開源項目,幫助開發者和數據科學家構建可信、安全、可解釋的人工智能系統。

螞蟻作為可信AI領域的先行者之壹,也做了很多探索。

螞蟻可信AI技術應用的最佳實踐成果是開發出壹套智能風控解決方案,命名為IMAGE。該技術體系實現了利用可信AI技術保障風控業務安全的問題,取得了非常好的效果。

可以把支付寶的資產損失率控制在萬分之0.098,在風控場景下解決很多世界難題。

再比如支付寶的“叫醒熱線”,從系統識別到用戶面臨欺詐風險,再到AI機器人給用戶“叫醒電話”,整個過程可以控制在0.1秒內。

基於可信人工智能的螞蟻群體形象風險控制系統

此外,螞蟻在可信AI的公平性方面也有自己的實際應用。

目前,業內廣泛使用的“圖形滑塊驗證碼”壹直是視障人士獲取數字服務的巨大障礙。但是很多app為了防止機器批量操作,不得不保留驗證碼服務。

因此,螞蟻開發了壹套“空中手勢”驗證碼方案,可以利用“行為識別”技術幫助視障群體通過“驗證碼”關卡。

可信AI的應用探索不會讓AI技術失去可能性。

它更像是壹個具有約束力的道德規範條約,讓AI保持在正確的軌道上。

18年後,真的無壹幸免嗎?

讓我們回到最初的問題。

AI真的會醒來嗎?

壹百年前,人類很難想象我們今天生活的這個高度數字化的世界。

那麽,人工智能壹百年後會有什麽變化,我們真的無法預測。

但是,AI對人類是福是禍,是關乎人類命運的至關重要的重要話題。

按照目前AI的發展模式,未來的AI可能會分為兩大派系:

壹個是自主智能AI,壹個是跟隨人類的可信AI。

當然有人還在問,AI真的有獨立意誌嗎?

就看怎麽科學解釋了。壹個AI系統可以卡在“自我意識”的狀態。唯壹的區別在於“卡住”的深度和魯棒性,這也可以解釋為什麽AlphaZero可以把自己“卡住”在壹個圍棋高手身上。如果繼續下去呢?這個AI派系可能會對人類造成我們所認為的“威脅”。

AI的另壹派,即相信AI,會在四項基本原則的框架下不斷完善自己,幫助人類解決更多的實際問題,成為人類可靠的助手,與人類共同生活。那麽,他們會壹直幫助和保護人類嗎?

但無論未來如何發展,不同的技術方向可能會帶來不同的悲劇或喜劇,但有壹點是肯定的:

AI技術四面出擊,無論是可信AI還是智能AI,最終都會到達我們生活的方方面面。它將滲透到世界的每壹個角落,在很多方面取代“無用的人”。

不管我們有多擔心,AI只會越來越強大,人類的進化會顯得那麽快,甚至退化。

那麽,18之後,有多少人會幸免呢?

  • 上一篇:男性保健品有哪些
  • 下一篇:謳歌熱愛環境保護環境的先進人物或事跡,批評諷刺破壞環境,浪費資源的現象
  • copyright 2024律師網大全