記者:人工智能機(jī)器本身也會出現(xiàn)失效甚至不可控的情況。比如,自動駕駛汽車、智能醫(yī)療等在一些情況下可能存在安全隱患。人工智能產(chǎn)品也有事故和產(chǎn)品責(zé)任問題,但要分清是人為操作不當(dāng)還是人工智能的缺陷并不容易,在舉證上尤其困難。
莫紀(jì)宏:這個(gè)問題確實(shí)復(fù)雜。目前法律上的證據(jù)規(guī)則都是以人的認(rèn)識能力可以把握的為限,如果出現(xiàn)了超出人類自身能力的人工智能出現(xiàn)了差錯,一是要停止這種人工智能產(chǎn)品的適用,二是對已經(jīng)造成的損失應(yīng)當(dāng)適用“不可抗力”條件來處理相關(guān)法律問題和糾紛。
劉俊海:關(guān)于舉證其實(shí)并沒那么復(fù)雜。舉個(gè)例子,自動駕駛汽車啟動的自動駕駛模式失效,導(dǎo)致汽車撞到前面的車輛上,造成人員傷亡。這種情況,讓消費(fèi)者舉證人工智能的缺陷很荒唐,應(yīng)該是消費(fèi)者拿商家的承諾來闡明汽車可以自動駕駛,但是采用自動駕駛模式,導(dǎo)致消費(fèi)者遭受財(cái)產(chǎn)損害,這就足以。舉證責(zé)任不該由消費(fèi)者承擔(dān),消費(fèi)者只用證明購買使用產(chǎn)品招致?lián)p害即可。
如果消費(fèi)者是故意被人工智能機(jī)器所傷害,進(jìn)而碰瓷索賠,這屬于不可原諒的道德風(fēng)險(xiǎn)。此時(shí)商家和生產(chǎn)商只要能證明消費(fèi)者故意就可以免責(zé)。如果存在重大過失,也可以免責(zé)。
記者:目前人工智能基本都會涉及機(jī)器學(xué)習(xí)技術(shù),這意味著需要收集、分析和使用大量數(shù)據(jù),其中很多信息由于具有身份的識別性,屬于個(gè)人信息。一方面,按照個(gè)人信息保護(hù)方面的法律規(guī)定,這些行為應(yīng)當(dāng)取得用戶明確、充分且完備的授權(quán),并應(yīng)當(dāng)明確告知用戶收集信息的目的、方式手段、內(nèi)容、留存時(shí)限還有使用的范圍等;另一方面,也有可能因黑客入侵而帶來破壞,導(dǎo)致信息安全問題。
劉俊海:人工智能機(jī)器消耗信息和數(shù)據(jù),就涉及到對個(gè)人信息的搜集、歸類、提取、分析使用以及涉及到授權(quán)別人使用等?;ヂ?lián)網(wǎng)再大也大不過法網(wǎng)。無論人工智能怎樣進(jìn)步,也逾越不了法網(wǎng)。人工智能領(lǐng)域沒有終生免責(zé)的特權(quán)主體。所以,按照消費(fèi)者權(quán)益保護(hù)法和網(wǎng)絡(luò)安全法的規(guī)定,任何組織個(gè)人特別是企業(yè),搜集使用消費(fèi)者個(gè)人的信息數(shù)據(jù),無論是個(gè)人的隱私空間、個(gè)人隱私的數(shù)據(jù)、個(gè)人隱私的活動等,都要堅(jiān)持合法、公開、知情、同意、合理、必要、有償?shù)然驹瓌t。這在消費(fèi)者權(quán)益保護(hù)法和網(wǎng)絡(luò)安全法都有規(guī)定。
朱巍:現(xiàn)在個(gè)人數(shù)據(jù)保護(hù)法暫時(shí)還沒有,網(wǎng)絡(luò)安全法已經(jīng)出臺。在未來,一旦人工智能開始學(xué)習(xí)的時(shí)候,實(shí)際上每個(gè)人都變成了信息產(chǎn)生的主體,屆時(shí)都會成為機(jī)器學(xué)習(xí)的對象。每個(gè)人產(chǎn)出的不一定是產(chǎn)品,而變成了讓機(jī)器模仿學(xué)習(xí)的數(shù)據(jù),最后可能讓人們覺得真假難辨。這還是很可怕的。
人工智能是把雙刃劍,個(gè)人信息的保護(hù)顯得尤為重要。
莫紀(jì)宏:如果人工智能涉及到危及個(gè)人信息的風(fēng)險(xiǎn),那么就要在法律上針對風(fēng)險(xiǎn)設(shè)立相應(yīng)的制度,要采取風(fēng)險(xiǎn)選擇的機(jī)制,即要求使用者承擔(dān)必要風(fēng)險(xiǎn),這樣可以免除部分產(chǎn)品提供者的責(zé)任,如果涉及到大范圍侵犯個(gè)人信息問題而產(chǎn)品提供者又無法有效控制風(fēng)險(xiǎn),應(yīng)當(dāng)從法律上強(qiáng)制終止高風(fēng)險(xiǎn)產(chǎn)品的使用。
記者:目前,法律領(lǐng)域已經(jīng)有了不少人工智能產(chǎn)品,人工智能會改變法律服務(wù)職業(yè)嗎?
莫紀(jì)宏:可以利用人工智能的技術(shù)優(yōu)勢來從事一些輔助性的法律服務(wù)工作,未來確實(shí)可能會影響法律服務(wù)職業(yè),但絕不能把實(shí)體的審判過程和結(jié)果也交給人工智能來實(shí)施,司法判決仍然必須具有價(jià)值傾向。
朱巍:人工智能不會改變法律職業(yè)。真正解決問題,還得靠人。
記者:人工智能有哪些隱患?在發(fā)展的同時(shí)要注意些什么?
莫紀(jì)宏:人工智能產(chǎn)品的隱患是全方位的,在帶來高效率和便利的同時(shí),增加了制度的風(fēng)險(xiǎn)性。所以,要設(shè)定制度范圍內(nèi)允許的最大風(fēng)險(xiǎn)承受值,越出的部分就不能再受保護(hù),必須予以放棄。
朱巍:人工智能的隱患在于人。人工智能、網(wǎng)絡(luò)技術(shù),包括很多的數(shù)據(jù)技術(shù)蓬勃發(fā)展,但是不要忘記,人要有所忌憚和底線,不應(yīng)該做的事不要去做。
劉俊海:一方面是軟件程序設(shè)計(jì)的問題,另外還有一些不可抗的因素。對于這種新鮮事物,要懷有滿腔熱忱支持人工智能的研發(fā)、生產(chǎn)、銷售,同時(shí)也要做好監(jiān)管工作。發(fā)展與規(guī)范并重,更加注重規(guī)范;創(chuàng)新和誠信并重,更加注重誠信;安全與快捷并重,更加注重安全;效率和公平并重,更加注重公平。人工智能技術(shù),在法治理性、公平公正、誠實(shí)信用的基礎(chǔ)之上,才能飛得更高、更遠(yuǎn)。要堅(jiān)決扭轉(zhuǎn)只發(fā)展不規(guī)范,只發(fā)展輕規(guī)范,先發(fā)展后規(guī)范的老路。
另一方面要預(yù)防的就是講快捷不講安全,沒有安全的快捷沒有任何價(jià)值和意義。切莫以利當(dāng)先,漠視人的生命。不能僅為了人工智能企業(yè)一端的利益忽悠消費(fèi)者,一定要充分尊重消費(fèi)者知情權(quán)、選擇權(quán)、公平交易權(quán)、安全保障權(quán)和隱私權(quán)。