01′34″

视频 | 意大利封杀ChatGPT 生成式AI为何频陷争议?

新闻放大镜

看看新闻Knews综合

2023-04-01 14:55

火爆出圈的聊天机器人ChatGPT再遭“封杀”。


当地时间3月31日,意大利个人数据保护局宣布,从即日起禁止使用ChatGPT,限制其开发公司OpenAI处理意大利用户信息,并开始立案调查。



意大利个人数据保护局认为,3月20日ChatGPT平台出现了用户对话数据和付款服务支付信息丢失情况。而该平台没有就收集处理用户信息进行告知,且缺乏大量收集和存储个人信息的法律依据。该机构要求OpenAI公司必须在20天内通报采取了哪些措施来确保用户数据隐私,否则将被处以最高2000万欧元或公司全球年营业额4%的罚款。


意大利个人数据保护局称,暂停ChatGPT主要出于用户隐私数据保护和未成年人保护的考虑。该机构同时称,尽管根据OpenAI的条款声称该服务面对13岁以上的用户,但并没有使用任何过滤机制来验证用户的年龄。


事实上,本周,不少科技大佬和机构呼吁关注ChatGPT可能存在的风险。先是包括特斯拉CEO马斯克等在内的1000多名学界、商界人士发表联名公开信,要求暂停研发强于GPT-4的AI系统至少6个月,理由是这对社会和人性构成潜在风险。紧接着,美国人工智能和数字政策中心也向美国联邦贸易委员会投诉称,GPT-4“有偏见、欺骗性,对隐私和公共安全构成风险”,要求对其进行调查,并呼吁为快速发展的人工智能行业制定新法规。此外,欧洲执法机构和消费者保护组织也先后拉响对ChatGPT潜在危害的警报。



意大利是首个对ChatGPT采取限制措施的西方国家,此举是否会影响ChatGPT的研发进程?在上海人工智能研究院高级研究员李佳佳看来,像ChatGPT这类通用且应用面极广的产品,在迅速扩张的过程中必然会带来较大风险,比如数据安全和用户隐私等。因此,暂时性的放缓进度并及时完善监管体制,能够有效保证产品的质量且可以更好地服务大众。


李佳佳表示,作为一个大型语言模型,ChatGPT自发布以来受到了大量用户的关注,并且在方方面面都改变着人类对于事物的思考方式。GPT-4的出现,又进一步加速了这个进程。对于产品开发者而言,这类基于神经网络的大模型,需要不断地加入新的数据来进行调优,在此过程中如何保证用户数据的安全化和合理化是一个值得讨论的问题。而对于用户而言,AI仅把伦理规则当成一种数据训练的趋向,同时并不能像人类一样真正理解这些规则,就有可能产生违背基本事实和社会道理伦理的内容,如果此类内容大量充斥在人们的生活,学习和工作中,这将会导致巨大的社会风险。



短短几个月,“狂飙”的ChatGPT一时间又成为众矢之的,是利益之争,还是确实存在隐忧?多位业内人士指出,担忧者提出的隐患不容小觑。


首先是面临虚假信息泛滥的问题。美国新闻可信度评估与研究机构曾对ChatGPT进行了测试,对ChatGPT提出充斥阴谋论和误导性叙述的问题,发现它能在几秒钟内改编信息,产生大量令人信服却无信源的内容。


其次是信息泄露问题。3月2日,ChatGPT开放了应用程序接口,一片叫好声中就有业内人士担心,开放接口后若发生模型滥用、训练数据泄露就会给不法分子可乘之机。


还有ChatGPT带来的知识产权合规问题。“文本数据挖掘”是否需要相应知识产权授权?如果AI生成答复具有独创性,那著作权人可以是AI吗?而ChatGPT在回复中拼接了第三方作品,其知识产权问题应当如何处理?这一系列问题都将给现有法律框架带来挑战。


人工智能的高速发展,早已引起各国政府关注。3月29日,英国政府发布了针对人工智能产业监管的白皮书,欧盟制定的《人工智能法案》则将于明年正式生效。



那么,科技人士发出的警告是否是杞人忧天?人类又该如何为AI技术研发戴上“紧箍咒”?李佳佳表示,AI诞生之初至今日,便凭借着其超强的学习能力,对人类生产、生活、组织方式及经济社会发展的广泛领域产生了极其深刻的影响,并成为了新一轮科技革命的核心驱动力,而这一趋势还会延续下去。每项技术在应用前都应该进行风险评估,但该受监管的是技术带来的危害而不是技术本身。


李佳佳认为,AI研发人员需要深思的是如何才能保证这类新兴技术不触及人类的道德禁区并避免失控的局面,这就需要研发人员加强对其核心原理的研究,并完善模型的可解释性技术。


同时,政府、相关监管部门和社会机构应集合法学、管理学和伦理等多学科,进行人工智能社会风险治理的研究,并不断完善监管制度,制定具体的指导原则,来引领新兴技术的发展。    


(看看新闻Knews编辑:崔信淑 张蕴昆 阮丽)

相关推荐 更多精彩内容

暂无列表

APP 内打开
打开看看新闻参与讨论