內(nèi)容簡(jiǎn)述: 本條例草案中"人工智能系統(tǒng)"(AI系統(tǒng))的定義是使用附件一所列的一種或多種技術(shù)和方法開(kāi)發(fā)的軟件,,并且能夠針對(duì)人類定義的一組特定目標(biāo)產(chǎn)生影響其互動(dòng)環(huán)境的內(nèi)容,、預(yù)測(cè)、建議或決定等產(chǎn)出,。
本條例草案提出了一些規(guī)定,,管理人工智能系統(tǒng)的開(kāi)發(fā)、銷售和在歐洲聯(lián)盟市場(chǎng)上的投放,??紤]到人工智能系統(tǒng)帶來(lái)的風(fēng)險(xiǎn)和挑戰(zhàn),這些規(guī)則僅限于保護(hù)人員的安全和基本權(quán)利的最低必要要求,,而不會(huì)過(guò)度限制或阻礙技術(shù)開(kāi)發(fā)或以其他方式不成比例地增加將人工智能解決方案投放市場(chǎng)的成本,。本條例草案依人工智能系統(tǒng)的潛在風(fēng)險(xiǎn)程度而有所不同。
歐盟將禁止認(rèn)定為對(duì)人們的安全,、生計(jì)和權(quán)利構(gòu)成明顯威脅的人工智能系統(tǒng),。這包括操縱人類行為以規(guī)避某些用戶自由意志的人工智能系統(tǒng)或應(yīng)用(例如,使用聲音輔助的玩具鼓勵(lì)未成年人危險(xiǎn)行為),,以及允許政府“社會(huì)評(píng)分”的系統(tǒng),。這些禁令涵蓋了一些危險(xiǎn)系數(shù)高的做法,如通過(guò)潛意識(shí)技術(shù)來(lái)操縱他人,,或利用兒童或殘疾人等特定弱勢(shì)群體的劣勢(shì),,扭曲其行為,從而可能對(duì)他們或其他人造成心理或身體傷害,。此外,,原則上禁止為執(zhí)法目的在公共無(wú)障礙空間"實(shí)時(shí)"使用遠(yuǎn)程生物識(shí)別系統(tǒng)。嚴(yán)格界定和規(guī)范特殊情況,,例如,,為搜尋失蹤兒童、防止具體和迫在眉睫的恐怖主義威脅或偵查,、定位、識(shí)別或起訴嚴(yán)重刑事犯罪的肇事者或嫌疑人而絕對(duì)必要的例外,。在允許的情況下,,此類使用須經(jīng)司法機(jī)構(gòu)或其他獨(dú)立機(jī)構(gòu)授權(quán),并在時(shí)間,、地理范圍和檢索數(shù)據(jù)庫(kù)方面有適當(dāng)限制,。
高風(fēng)險(xiǎn)人工智能系統(tǒng)在進(jìn)入歐盟市場(chǎng)之前,必須嚴(yán)格履行義務(wù)。
確定為高風(fēng)險(xiǎn)的人工智能系統(tǒng)包括本建議書(shū)附件中列出的人工智能技術(shù),,用于以下廣泛領(lǐng)域:
?
實(shí)時(shí)和事后遠(yuǎn)程生物識(shí)別系統(tǒng),;
?
可能危及人民生命和健康的關(guān)鍵基礎(chǔ)設(shè)施(如交通);
?
教育或職業(yè)培訓(xùn),,這可能決定一個(gè)人獲得教育和專業(yè)課程的機(jī)會(huì)(例如,,考試分?jǐn)?shù));
?
根據(jù)歐盟部門產(chǎn)品安全立法,,受第三方合格評(píng)定的受監(jiān)管產(chǎn)品的安全組件(例如,,機(jī)器人輔助手術(shù)中的人工智能應(yīng)用);
?
就業(yè),、工人管理和自營(yíng)職業(yè)(例如,,招聘程序的簡(jiǎn)歷分類軟件);
?
基本的私人和公共服務(wù)(例如,,信用評(píng)分剝奪了人們獲得貸款的機(jī)會(huì)),;
?
可能干擾人民基本權(quán)利的執(zhí)法(例如,評(píng)估證據(jù)的可靠性),;
?
移民,、庇護(hù)和邊境管制管理(例如,核實(shí)旅行證件的真實(shí)性),;
?
司法和民主進(jìn)程(例如,,將法律應(yīng)用于一系列具體事實(shí))。
高風(fēng)險(xiǎn)人工智能系統(tǒng)的相關(guān)要求:
?
充分的風(fēng)險(xiǎn)評(píng)估和緩解系統(tǒng),;
?
為系統(tǒng)提供高質(zhì)量的數(shù)據(jù)集,,以最大限度地降低風(fēng)險(xiǎn)和歧視性結(jié)果;
?
記錄活動(dòng)以確保結(jié)果的可追溯性,;
?
提供有關(guān)該系統(tǒng)及其目的的所有必要信息的詳細(xì)文件,,供當(dāng)局評(píng)估其遵守情況;
?
向用戶提供清晰,、充分的信息,;
?
采取適當(dāng)?shù)娜肆ΡO(jiān)督措施,將風(fēng)險(xiǎn)降至最低,;
?
高度的穩(wěn)健性,、安全性和準(zhǔn)確性。
此類高風(fēng)險(xiǎn)人工智能系統(tǒng)的公共和私人供應(yīng)商必須遵循合格評(píng)估程序,,以證明這些系統(tǒng)符合上述要求,,然后才能將這些系統(tǒng)投入歐盟市場(chǎng)或在歐盟使用。為了促進(jìn)這一點(diǎn),,本條例草案包括了與歐洲標(biāo)準(zhǔn)化組織(CEN/CENELEC和ETSI)將根據(jù)歐盟委員會(huì)的授權(quán)采用的協(xié)調(diào)技術(shù)標(biāo)準(zhǔn)的未來(lái)協(xié)調(diào)和起草有關(guān)的規(guī)定,。同時(shí)規(guī)定了對(duì)高風(fēng)險(xiǎn)人工智能系統(tǒng)的提供者和用戶須承擔(dān)可預(yù)測(cè)的,、相應(yīng)的、明確的義務(wù),,以確保在整個(gè)人工智能系統(tǒng)的生命周期內(nèi),,保護(hù)基本權(quán)利現(xiàn)有法律的尊嚴(yán)。
具有特定透明度義務(wù)的人工智能系統(tǒng):當(dāng)使用聊天機(jī)器人等人工智能系統(tǒng)時(shí),,人們應(yīng)該意識(shí)到他們正在與機(jī)器交互,,這樣他們就可以做出明智決定,選擇繼續(xù)或后退,。如果人們接觸到情緒識(shí)別和生物特征分類系統(tǒng)以及假貨,,他們也應(yīng)該知曉。
最低風(fēng)險(xiǎn):在遵守現(xiàn)行立法的前提下,,該提案允許自由使用所有其他未被禁止,、被定性為"高風(fēng)險(xiǎn)"或需要特定透明度義務(wù)的人工智能應(yīng)用程序。絕大多數(shù)人工智能系統(tǒng)都屬于這一類,。條例草案沒(méi)有在此進(jìn)行干預(yù),,因?yàn)檫@些人工智能系統(tǒng)僅對(duì)人民的權(quán)利或安全構(gòu)成最小風(fēng)險(xiǎn)或沒(méi)有風(fēng)險(xiǎn),但非高風(fēng)險(xiǎn)人工智能系統(tǒng)的提供者可以自愿遵守自愿行為守則,,以證明其應(yīng)用的可靠性,。
在治理方面,歐盟委員會(huì)建議由國(guó)家主管市場(chǎng)監(jiān)管機(jī)構(gòu)監(jiān)督新規(guī)則,,而歐洲人工智能委員會(huì)得建立,,將促進(jìn)其實(shí)施,并推動(dòng)人工智能標(biāo)準(zhǔn)的制定,。此外,,還建議采取具體措施來(lái)支持小規(guī)模供應(yīng)商和用戶以及監(jiān)管沙盒,以促進(jìn)負(fù)責(zé)任的創(chuàng)新,。