欧洲拟严格监管高风险AI技术


欧洲拟严格监管高风险AI技术



据美国《科学》杂志网站19日报道 , 欧盟委员会发布新计划称 , 将制定法律严格监管高风险人工智能(AI)技术 , 更新欧盟2018年AI发展战略 , 未来在AI研发领域投资数十亿美元等 , 以进一步促进欧盟AI产业发展 。
该委员会将起草新法律 , 管理AI技术的高风险应用 , 例如在医疗设备、自动驾驶汽车内的应用等 。 尽管这些法律将比欧盟以往发布的任何法律都更广泛且更严格 , 但欧洲委员会主席乌尔苏拉·冯·德·莱恩表示 , 这些法律的目的是促进“信任 , 而非恐惧” 。
与美国相比 , 欧洲对AI采取的态度更为谨慎 , 欧盟官员希望通过监管赢得消费者的信任 , 从而推动AI技术的广泛采用 , 帮助欧洲在国际AI技术竞争中脱颖而出 。
欧盟委员会指出 , 确定某些应用是否是“高风险”应用有一套准则 。 例如 , 是否会导致人受伤、或者会导致人对机器人决定(如AI用于招聘或警务活动)没有任何发言权 。 欧盟委员会希望 , 高风险应用需要人工监督 。
法律还将确定谁为AI系统的行为负责:使用AI系统的公司还是设计AI系统的公司 。 高风险应用程序必须被证明遵守法规 , 才能在欧盟内广泛使用 。
此外 , 这些法律还将管理用于训练AI系统的大型数据集 , 以确保它们合法采购、来源合法 。 欧盟委员会反垄断专员玛格丽特·维斯塔格说:“AI系统可靠的基础是技术强大且准确 。 ”
【欧洲拟严格监管高风险AI技术】欧盟委员会表示 , 将就“面部识别AI系统在欧洲范围内开展一场广泛的讨论” 。 尽管德国等欧盟国家已宣布部署这些系统的计划 , 但官员们表示 , 这些系统经常违反欧盟隐私法 , 包括有关警察工作的特别规定 。
新AI计划不仅涉及法规 , 欧盟委员会还将提出一项“行动计划” , 将人工智能整合到交通和医疗等公共服务中 , 并将更新欧盟2018年人工智能发展战略 , 该战略拟投入15亿欧元用于AI研究 。 此外 , 欧盟委员会呼吁开展更多研发 , 包括创立AI“卓越和测试中心” , 投资数十亿美元建立新型AI产业合作伙伴关系等 。
在接下来12周内 , 专家、游说团体和公众可对此发表意见 , 随后欧盟委员会开始草拟具体法律法规 , 最终法规需要得到欧洲议会和成员国政府批准 , 预计今年不太可能完成 。 (采访人员刘霞)

    推荐阅读