人工智能在法律上是否應(yīng)該賦予其主體地位?回答這個問題,應(yīng)該從人類發(fā)展人工智能的初衷,即為何要發(fā)展人工智能的角度去考慮。在此基礎(chǔ)上,再來探討如何發(fā)展人工智能的問題。
毫無疑問,發(fā)展人工智能的首要動機(jī)在于提高生產(chǎn)力,實(shí)現(xiàn)人類自身的解放,使人類獲得更大、更多的自由,而不是取代人類,使人類成為被驅(qū)使的對象。因此,安全可控應(yīng)該是整個人類社會發(fā)展人工智能的基本準(zhǔn)則;不安全、不可控的人工智能不應(yīng)當(dāng)被發(fā)展,應(yīng)該受到控制乃至禁止。為此目的,必須要從兩個方面入手:一是強(qiáng)制性要求人工智能的算法必須公開,接受整個人類社會的監(jiān)督;同時對人工智能有關(guān)的產(chǎn)品實(shí)行市場準(zhǔn)入管理,只有軟硬件都符合技術(shù)標(biāo)準(zhǔn)的人工智能產(chǎn)品才能進(jìn)入市場;二是法律上拒絕承認(rèn)人工智能的主體地位。
要求人工智能算法公開,這顯然會遭到一些業(yè)界公司和技術(shù)先進(jìn)國家的反對。現(xiàn)實(shí)情況下,技術(shù)先進(jìn)的人工智能公司和國家,往往會以商業(yè)秘密或技術(shù)秘密為借口拒絕公開其算法,從而實(shí)現(xiàn)保持競爭優(yōu)勢的目的。而在學(xué)術(shù)界,尤其是主流法學(xué)界,要么是沒有看到安全可控是整個人類發(fā)展人工智能的基本準(zhǔn)則,要么是出于優(yōu)先發(fā)展本國技術(shù)的想法,因而繼續(xù)秉持傳統(tǒng)的思維,將人工智能算法視為商業(yè)秘密。這種觀念及其產(chǎn)業(yè)政策和立法的后果,將有悖于安全可控這一基本準(zhǔn)則的落實(shí),最終極可能導(dǎo)致人類發(fā)展人工智能事與愿違。
當(dāng)下,之所以很多人對人工智能生成物的法律屬性存在分歧和認(rèn)識偏差,其主要原因在于對人工智能的技術(shù)原理缺乏應(yīng)有的認(rèn)知。實(shí)際上,目前的人工智能往往功能單一,不同類型(功能)的人工智能,其工作原理可能存在差異。因此,我們不能以對一種功能(類型)的人工智能工作原理的認(rèn)知來代替對其他類型的人工智能的工作原理的認(rèn)知。目前的人工智能,不僅在其算法設(shè)計出來后需要用大量的數(shù)據(jù)對其進(jìn)行訓(xùn)練,即使在人工智能的后續(xù)使用過程中,仍然需要不斷地給予新的數(shù)據(jù)來訓(xùn)練它,以實(shí)現(xiàn)其不斷適應(yīng)新形勢的需要。同時,也有的人工智能還可以自主學(xué)習(xí),從而獲得新的智能。因此,那種認(rèn)為人工智能一旦設(shè)計出來后,無需再用數(shù)據(jù)訓(xùn)練,或者不會自主學(xué)習(xí),從而“相同的輸入,必將產(chǎn)生相同的輸出”是片面的。也就是說,一些學(xué)者“人工智能生成物一定不符合版權(quán)法上的獨(dú)創(chuàng)性要件”的見解是不成立的。
那么,利用人工智能所產(chǎn)生的內(nèi)容或成果(生成物)是否應(yīng)該享有版權(quán)呢?我們還應(yīng)從人工智能所產(chǎn)生的內(nèi)容本身是否符合版權(quán)法對作品的獨(dú)創(chuàng)性要求來衡量,如果符合,它就是作品,就應(yīng)該受版權(quán)法保護(hù),其權(quán)利主體屬于人工智能的所有者或使用者所有。版權(quán)法規(guī)范的作品創(chuàng)作行為是自然人的創(chuàng)作行為,如果是人工智能(而非自然人)完成的生成物,就不是版權(quán)法意義上的作品、不受版權(quán)法保護(hù)。至于認(rèn)為人工智能的所有者或使用者不是人工智能生成物的版權(quán)人的觀點(diǎn),是違背了人類發(fā)展人工智能的初衷的,因此是不合理的。由此筆者認(rèn)為,有關(guān)法院在近期的判例中,沒有將所涉人工智能生成物認(rèn)定為版權(quán)法上作品的做法有待商榷。如果按照法官判決中所遵循的邏輯,對于相同的“生成物”,如果原告不標(biāo)明是利用人工智能產(chǎn)生的,它符合作品的要件,就應(yīng)該被認(rèn)定為作品,原告成為版權(quán)人就是毋庸置疑的。(劉德良)
(作者系北京師范大學(xué)法學(xué)院教授、亞太人工智能法治研究院院長)中國知識產(chǎn)權(quán)報