为什么需要制定AI管理法律?

Fang
By Fang
8 Min Read

为什么需要制定AI管理法律?

在由科技部、国会科技与环境委员会、越南工商联合会(VCCI)于10月15日在河内组织的关于完善人工智能(AI)法律草案的研讨会上,专家和企业代表提出了人工智能发展中存在的许多风险。

国会科技与环境委员会副主任陈文凯在研讨会上表示,越南在东南亚AI发展中排名第三。但AI的发展也带来了许多道德和法律挑战,因此在第十五届国会第十次会议(将于2025年10月底开幕)上立即颁布人工智能法律至关重要,有助于为AI发展奠定法律基础。

陈先生确认:“最重要的是促进AI管理与发展的平衡,其中禁止事项必须真正明确,关于受控试验机制的规定必须清晰,以创造AI发展空间。”

然而,AI法律草案调整的是一个无形主体,我们无法接触AI,因此将重点管理产生AI的个人和组织。

据陈先生介绍,当前AI发展存在六大风险群体:公共服务、个人数据、道德与责任、网络安全、就业与劳动、教育。

律师黎春禄在研讨会上发表意见,分享了世界趋势是保护AI发展但尊重AI发展中的权利主体。所有AI应用都必须尊重知识产权。

为什么需要制定AI管理法律?

BMVN国际律师事务所律师阮俊灵对AI法律草案提出意见,认为我们在AI发展中拥有巨大机会,因此法律应基于公平、开放的方针构建,避免规定过于繁重,限制AI发展。AI风险评估应基于明确、客观的标准并遵循国际规范。

据阮先生介绍,草案第14条禁止的行为范围太广,必须澄清并缩小禁止范围。此外,草案第15条第1款对高风险AI的分类也过于宽泛,AI平台所有者难以评估用户产生的所有风险。因此,需要为AI平台所有者提供明确的豁免权。

同样观点,美国-东盟商业理事会专家阮明德建议,在开发者已充分履行法律规定责任的情况下,应补充AI开发者的责任豁免权。这对为社区目的开发AI的人有利。

此外,阮先生还指出,规定在越南开发AI的外国企业必须注册并受国内职能部门管理存在不足。这可能导致外国开发者忽略越南市场。因此,只应在用户平台规模大、风险高的情况下应用此规定。

作为实际部署AI的人,Luatvietnam.vn公司传播总监陈文智提议向AI法律草案补充四个问题组,即更明确规定AI开发方的权利和责任。

第二,AI生成产品的标签必须更明确规定范围和必须标签的程度。对于AI生成内容过于简单,仅作为人类助手,人类仍为主要决策者的情况,应重新考虑是否有必要标签。

第三,高风险人工智能系统在使用时必须进行评估。

第四,AI提供的内容和知识不属于AI,而总是与某个主体相关联,因此需要详细规定是否引用来源以避免侵犯知识产权。

(编译:Ivy 越南中文社;审校:Ken;来源:Tuoitre)

Share This Article
没有评论

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注