數(shù)字金融
網(wǎng)絡營銷推廣
電商服務
“現(xiàn)在,當我們談論使用人工智能帶來的風險時,我們應該區(qū)分哪些風險是人類帶來的,哪些風險是技術(shù)造成。”10月26日,在2024世界頂尖科學家智能科學大會“為人類永續(xù)發(fā)展制定AI治理框架”主題論壇結(jié)束后,Verimag實驗室創(chuàng)始人、2007年圖靈獎得主約瑟夫·希發(fā)基思在接受澎湃科技(www.thepaper.cn)采訪時表示。
約瑟夫·希發(fā)基思于1946年出生于希臘,在法國完成碩士、博士學位,并成為法國格勒諾布爾大學(Université Grenoble Alpes)VERIMAG實驗室創(chuàng)始人和科研主任,2007年希發(fā)基思因在模型檢查理論和應用方面的貢獻獲得了圖靈獎,這是計算機科學領(lǐng)域的最高榮譽之一。
在此次“為人類永續(xù)發(fā)展制定AI治理框架”主題論壇上,談論起當前AI發(fā)展帶來的風險問題,約瑟夫·希發(fā)基思表示,現(xiàn)在,當我們談論使用人工智能帶來的風險時,我們應該區(qū)分哪些風險是人類帶來的,哪些風險是技術(shù)造成。對于人工智能來說,非常有可能區(qū)分出哪些風險是人類使用技術(shù)造成的,哪些是技術(shù)本身造成的。
約瑟夫·希發(fā)基思指出,前者包括算法需求的不完整性、算法設(shè)計的缺陷,以及算法部署時可能面臨的外部環(huán)境威脅。后者分為兩種,比如當客戶或投資方對AI系統(tǒng)提出的需求可能不合法或不道德,用戶也可能將系統(tǒng)用于風險中。對此,約瑟夫·希發(fā)基思認為,應針對算法設(shè)計者和使用者的人為風險以及算法設(shè)計部署階段的技術(shù)風險,分別制定相應對策。
“為了避免這一風險,法規(guī)非常重要,當前所有出現(xiàn)的問題,都是因為利益相關(guān)者沒有給出明確的定義要求。技術(shù)可以適當?shù)靥岣邩藴省!奔s瑟夫·希發(fā)基思稱。
約瑟夫·希發(fā)基思在會后接受澎湃科技(www.thepaper.cn)采訪時指出,當前,太多人談論AI(人工智能),但什么是智能,如何真正地實現(xiàn)應用,這些人無法精確地回答。他認為,盡管人類在人工智能研究中取得了長足的進步,并迎來了生成式AI,但目前應用只是弱智能(weak AI),集中在問答應用上,并沒有能夠同步人工智能能力的技術(shù)和法則。
澎湃科技注意到,2024頂科協(xié)獎“智能科學獎”得主、康奈爾大學計算機科學和信息科學講席教授喬恩·克萊因伯格在此次論壇上也指出,當前人工智能發(fā)展,人類自身的排外偏見會導致算法與生俱來的偏見,進而引發(fā)人類社會的一系列混亂。受到經(jīng)濟激勵的影響,人們在設(shè)計算法時容易陷入“單作”的狀態(tài)。此外,人類在面對超越人類的AI系統(tǒng)時,認知上的落后會帶來麻煩。在和此類AI系統(tǒng)開展合作時,控制權(quán)往往不在人類自己手里。但假如人工智能突然把控制權(quán)交了出來,那么人類就可能犯下嚴重錯誤,因為AI知道該怎么做,人類未必。
所以克萊因伯格認為,“在做人類判斷和算法知識判斷的時候,都要考慮風險偏見問題。”在設(shè)計時既要追求算法的強大,也要注意,事態(tài)不能發(fā)展到失控的地步。