人工智能法律監管的幾大問題 或需修改現有法律

法律一般不對實踐中沒有定型的經驗、社會中沒有成熟的關系進行調整。就人工智能發展的階段而言,一般認為存在著弱人工智能、強人工智能和超人工智能三個階段。目前人工智能的發展仍然處于弱人工智能階段,因此當前并不能夠制定出關于人工智能的完整的法律制度。

人工智能的法律規制需要和具體的領域結合起來,在每一個細分領域里,存在著不同的規制方法、進路和手段。電子商務將互聯網的技術運用于商業領域,政府監管的重要目的在于促進競爭和反壟斷,保護消費者權利,維護市場秩序。人工智能廣泛運用于醫療領域,相關數據往往屬于個人敏感數據,政府在設計監管模式的時候,必然采取高準入、嚴許可的進路。

規制人工智能的立法進路

就人工智能的法律應對而言,我國目前更多的是從產業政策促進、扶持和發展的角度對人工智能提供行政指導。2017年國務院發布的《新一代人工智能發展規劃》突出地反映了這一思路。

在監管層面上,目前對人工智能的法律規制在電子商務、數據安全和智能投顧領域的立法中已經有個別條款分別涉及?!峨娮由虅辗ā芬幎?,電子商務經營者根據消費者的興趣愛好、消費習慣等特征向其推銷商品或服務的搜索結果的,應當同時向該消費者提供不針對其個人特征的選項,尊重和平等保護消費者合法權益。這是在法律層面對大數據算法殺熟的回應。此外,《電子商務法》第40條規定,對于競價排名的商品或服務,應當顯著標明“競價”。

規章層級的《數據安全管理辦法》(征求意見稿)也對算法進行了相應的規制?!掇k法》規定,“網絡運營者利用大數據和人工智能等技術,通過算法自動合成的新聞信息、博文、帖子、評論等,應當以顯著方式表明‘合成’字樣。”對于算法推薦的規制,除了披露義務之外,規范信息流程、報備模型參數、違規行為懲處等長效機制都是法律制度設計需要考量的要素。

2018年3月28日,中國人民銀行、銀保監會、證監會、外匯局聯合發布《關于規范金融機構資產管理業務的指導意見》(以下簡稱“指導意見”)。該指導意見對人工智能在金融領域的應用進行了規制,從勝任性要求、投資者適當性以及透明披露方面對智能投顧中的算法進行穿透式監管。

《指導意見》明確,運用人工智能技術開展投資顧問業務應當取得投資顧問資質。除了要遵守一般性規定外,還應當向金融監督管理部門報備人工智能模型的主要參數以及資產配置的主要邏輯,為投資者單獨設立智能管理賬戶,充分提示人工智能算法的固有缺陷和使用風險,明晰交易流程,強化留痕管理,嚴格監控智能管理賬戶的交易頭寸、風險限額、交易種類、價格權限等。

《指導意見》強調,因算法同質化、編程設計錯誤、對數據利用深度不夠等人工智能算法模型缺陷或者系統異常,導致羊群效應、影響金融市場穩定運行的,金融機構應當強制調整或者終止智能投顧業務。

在監管手段上,金融監管部門對智能投顧的法律規制采取了組合拳的方式。智能投資顧問是投資咨詢機構業務的延伸,投資咨詢機構應當被識別為受托人,承擔信義義務和合規義務。

在監管方式上,金融監管部門運用監管科技應對金融科技的興起。金融機構在利用智能投顧開展資產管理業務的時候,必須要獲得行政許可、獲得資質;報備模型參數、實現算法透明和算法可解釋性;制定預案、適時人工干預。

人工智能的司法規制

這里在討論人工智能規制的時候,將不去區分人工智能和算法之間的區別,將它們作為同一概念處理。美國聯邦法院和州法院在判例中或者將算法定性成商業秘密,或者在關于搜索引擎算法的判決中,將它看成是言論,在學者中激起了廣泛的爭論。

算法作為言論

2003年的Search King v?!oogle- Tech。,Inc。案中,俄克拉荷瑪州法院認為,網頁排名是一種意見,搜索引擎根據算法生成的結果是它的言論。四年之后,Longdon v?!oogle案中,聯邦地區法院也支持了算法是言論的主張。

就搜索引擎算法是否是言論,在理論上仍然有激烈的反對意見。更進一步的問題在于,即使司法對此已經給出了正面的回答,這一定性是否推廣到所有領域的算法仍然是懸而未決的問題。

算法作為商業秘密

在美國刑事訴訟領域,算法廣泛運用于預測個體是否會重新犯罪,以及是否到庭,從而影響定罪、量刑以及保釋。這種做法,在算法的準確性、算法考慮不相關的社會因素以及算法的正當程序三個方面引發了普遍的質疑。

在State v?!oomis,881 N?!?!?d 749一案中,魯米斯因駕車槍擊案而遭受刑事指控。威斯康星州法院在量刑的時候基于COMPAS的評估判處魯米斯六年監禁外加五年監外執行。魯米斯以侵犯了他的正當程序權利和平等保護權為由提起上訴。威斯康星州最高法院認為,性別作為參數進入算法,其目的是為了算法準確性而非為了歧視,因此沒有侵犯被告的平等權。其次,COMPAS所分析的數據依賴于公開的刑事犯罪記錄和被告提供的數據。最后,由于評估結論并非法院量刑的唯一依據,法院所要求的個別化對待的權利得到了保障。

在算法公平和商業秘密之間,法院在這個案件中站在了商業秘密一邊。這一司法立場有助于促進技術創新和人工智能產業的發展。但算法公平性的問題仍然懸而未決。

當認為算法會帶來歧視性的結果的時候,根本原因在于作為算法基礎的數據中隱含著民族、種族和性別的偏見。Anupam Chander認為有效的補救措施應當是,設計算法的時候必須考慮到現有數據中潛藏著的歧視。Danielle Keats Citron和Frank Pasquale主張,監管者應當可以檢測系統以確保其公平性和正確性,個人有權要求糾正對他們進行錯誤分類而帶來不利影響的機器決策。

人工智能的源頭規制

歐盟《一般數據保護條例》通過訪問權、修改權、刪除權、可攜帶權等具體權利的規定確立了個人數據決定權。除了可攜帶權有利于在人工智能企業之間形成競爭、促進產業發展之外,其他的權利都對人工智能的發展構成了直接的限制。

《條例》更賦予數據主體以免于自動化決策的權利?!稐l例》21條明確規定:“數據主體有權根據其特殊情況,在個人數據被處理的過程中行使反對數據畫像的權利。”第22條進一步明確,如果某種包括數據畫像在內自動化決策會對數據主體產生法律效力或者造成類似的重大影響,數據主體有權不受上述決策的限制。

根據第29條工作組指引,在下述情形中,不得使用自動化決策。比如解除合同;對法律所提供的某一具體的社會福利的獲取或喪失;嬰幼兒補貼或住房補貼;拒絕入境某個國家或者是否認公民身份。上述情形具有的共同特點就是自動化決策已經影響到行政相對人的權利義務。

除了第21條的規定之外,《條例》“序言”第71條規定,數據主體應免于受制于自動化處理手段對其個人進行精準評價,以及對其產生法律效果或重要影響的情況。任何情況下,這些數據處理應當有適當的保護措施,包括獲得認為干預的權利、表達觀點的權利、評估后達成決定的解釋權以及獲得救濟的權利。

《條例》區分一般數據和敏感數據,對后者進行更為嚴格的保護。第9條明確,除非各成員國立法授權,辨識種族或民族出身、政治觀點、宗教或哲學信仰、工會成員的個人數據以及以識別自然人為目的的基因數據、生物特征數據、健康數據、自然人的性生活或性取向的數據的處理應當禁止。

《條例》所確立的數據最小化原則對人工智能行業的發展有直接的影響。企業必須闡明它們為什么需要收集和處理數據,以及它們進行數據處理獲得了什么成果。對數據的監管實際上從源頭影響到人工智能行業的發展。

需要修改現有法律

人工智能技術的發展為法律規制提出了現實要求,而法律領域也越來越深刻地受到人工智能的影響。

《一般數據保護條例》的默認隱私原則展示了大數據時代人工智能技術對于立法行為的本質性改變,我們可以將法律所追求的價值和原則嵌入式地植入產品中。法律規制體系也將從對事物的規制轉變成對代碼的規制。

就司法而言,通過智慧司法提升司法效率,促進司法公平。最近增設互聯網法院更是將其意蘊拓展到了網絡治理主權的層面。就司法領域的人工智能而言,如何以平等原則和正當程序回應算法歧視和算法黑箱將是司法人工智能領域的持久性話題。

在執法領域,因為自動化決策的普及,將會出現法律的自動執行。2018年,深圳就普通高校畢業生落戶深圳實現秒批(無人干預自動審批)。大量行政法上的程序權力被自動化決策所架空,這需要加強自動化決策方面的行政立法,以實現人工智能的運用和公民權利保護的平衡。

總的來說,并不存在關于人工智能的一般化的法律規制。相關的法律規制應當是和具體場景結合起來的,存在立法、司法和技術的三種形式。

通過以上法律規范的分析,初步勾勒出我國對人工智能進行法律規制的路徑??傮w來說,人工智能時代+的特點并沒有能夠很好地反映到立法中。當務之急是修改現有的法律,使得它能夠兼容大數據和人工智能技術在具體領域和場景中的應用?!蹲C券法》第171條《證券投資顧問業務暫行規定》第12條規定,證券投資咨詢機構不得代理委托人做出投資決策。因此,智能投顧和禁止證券投資咨詢全權委托的規定存在沖突?!睹袷略V訟法》也需要進行修訂或出臺互聯網管轄方面的司法解釋,使得互聯網法院的管轄、審理、送達等具體運作的環節上能夠實現網上受理,網上審理,網上執行的目標?!兜缆方煌ò踩ā沸枰M行相應的調整,以兼容現有的無人駕駛技術。

歐盟的進路實際上抓住了人工智能的本質。所有的人工智能都是建立在算法和算力的基礎上的。當對數據進行嚴格保護的時候,其實就在源頭對人工智能進行了規制。

3d试机号对应码图