|
|
如何定义人工智能的法律主体地位 |
|
作者:佚名 文章来源:本站原创 点击数: 更新时间:2023/4/28 11:28:25 | 【字体:小 大】 |
喜爱夜猫人工智能在法律上是否应该赋予其主体地位?回答这个问题,应该从人类发展人工智能的初衷,即为何要发展人工智能的角度去考虑。在此基础上,再来探讨如何发展人工智能的问题。
毫无疑问,发展人工智能的首要动机在于提高生产力,实现人类自身的解放,使人类获得更大、更多的自由,而不是取代人类,使人类成为被驱使的对象。因此,安全可控应该是整个人类社会发展人工智能的基本准则;不安全、不可控的人工智能不应当被发展,应该受到控制乃至禁止。为此目的,必须要从两个方面入手:一是强制性要求人工智能的算法必须公开,接受整个人类社会的监督;同时对人工智能有关的产品实行市场准入管理,只有软硬件都符合技术标准的人工智能产品才能进入市场;二是法律上拒绝承认人工智能的主体地位。
要求人工智能算法公开,这显然会遭到一些业界公司和技术先进国家的反对。现实情况下,技术先进的人工智能公司和国家,往往会以商业秘密或技术秘密为借口拒绝公开其算法,从而实现保持竞争优势的目的。而在学术界,尤其是主流法学界,要么是没有看到安全可控是整个人类发展人工智能的基本准则,要么是出于优先发展本国技术的想法,因而继续秉持传统的思维,将人工智能算法视为商业秘密。这种观念及其产业政策和立法的后果,将有悖于安全可控这一基本准则的落实,最终极可能导致人类发展人工智能事与愿违。
当下,之所以很多人对人工智能生成物的法律属性存在分歧和认识偏差,其主要原因在于对人工智能的技术原理缺乏应有的认知。实际上,目前的人工智能往往功能单一,不同类型(功能)的人工智能,其工作原理可能存在差异。因此,我们不能以对一种功能(类型)的人工智能工作原理的认知来代替对其他类型的人工智能的工作原理的认知。目前的人工智能,不仅在其算法设计出来后需要用大量的数据对其进行训练,即使在人工智能的后续使用过程中,仍然需要不断地给予新的数据来训练它,以实现其不断适应新形势的需要。同时,也有的人工智能还可以自主学习,从而获得新的智能。因此,那种认为人工智能一旦设计出来后,无需再用数据训练,或者不会自主学习,从而“相同的输入,必将产生相同的输出”是片面的。也就是说,一些学者“人工智能生成物一定不符合版权法上的独创性要件”的见解是不成立的。
|
|
 栏目文章
|
|
|