AI换脸、“复活”生命?科技伦理审核为算法模型划出红线

[娱乐] 时间:2024-03-28 22:42:33 来源:蓝影头条 作者:焦点 点击:34次
《审查办法》列出了需要开展伦理审查复核的复活科技活动清单,包括具有舆论社会动员能力和社会意识引导能力的换脸算法模型、应用程序及系统的生命审核研发等。

编辑|丁一

在年初大火的科技电影《流浪地球2》里,为我们描摹出了一幅“数字生命”的伦理具体形象——丫丫的意识上传到电脑后,数字世界中出现了与她一样的为算数字生命。在影片中,法模丫丫最开始只有两分钟的型划线生命,但图恒宇却想给已成为数字生命的出红女儿一个“完整的一生”。

在这些科幻电影中被畅想的复活片段似乎已经离我们不远。在GPT和算法迅速的换脸发展之下,已有人实现了用AI工具与逝者“对话”的生命审核可能性。此外,科技AI换脸、伦理AI生成视频等也都曾引发热议,为算其背后随之而来的科技伦理、道德、法律风险也成为了舆论关注的重点。

近日,由科技部、教育部、工业和信息化部等十部门联合印发的《科技伦理审查办法(试行)》(以下简称《审查办法》)正式公布,意在规范科学研究、技术开发等科技活动的伦理审查工作,强化科技伦理风险防控。

天使投资人、资深人工智能专家郭涛认为,《审查办法》实施后对人工智能大模型的发展带来了更加严格的要求和监管,这将有助于推动可信人工智能的实现,推动人工智能产业健康有序发展。

为算法模型发展划“红线”

《审查办法》明确,从事生命科学、医学、人工智能等科技活动的单位,研究内容涉及科技伦理敏感领域的,应设立科技伦理(审查)委员会。

值得关注的是,《审查办法》还列出了需要开展伦理审查复核的科技活动清单,包括具有舆论社会动员能力和社会意识引导能力的算法模型、应用程序及系统的研发等。

这也意味着,算法模型、应用程序及系统的研发等也将成为《审查办法》实施后进行伦理的审查重点。近年来,由ChatGPT的爆火开始,“大模型”“算法”等也备受关注,科技进步在带来创新的同时,也引发了背后的隐忧。

今年4月上旬,上海小伙吴伍六“复活”奶奶的视频在网上迅速走红,引发网友热议。吴伍六用了Midjourney、ChatGPT和D-ID等最新的AI技术去尝试“复活”奶奶。其中ChatGPT4深度参与了“奶奶”的创作。经过吴伍六描绘了奶奶的性格特征以及生活经历后,ChatGPT4可以扮演奶奶的角色,和孙子自由“对话”。

当时网上舆论有认为这样的方式能给人带来慰藉,但也有人认为这会带来伦理问题。在此之前,生成式人工智能、算法等也引发多轮争议。例如,不法分子利用非法获取的个人信息,通过计算机算法仿真合成受骗者亲人、领导同事或公职人员的肖像面容与声音,冒充上述人员身份行骗。

又如,生成式AI创建的内容高度逼真,普通人越来越难以区分真实和生成的内容,也让“有图有真相”“有视频有真相”成为过去,而伪造、扭曲事实、造谣也变得更加容易。

财经评论员张雪峰认为,《审查办法》的出台意味着对人工智能算法模型的发展设置了一定的限制和规范。它为算法模型的研发和使用提供了伦理审查的指导,确保科技活动在符合道德和社会价值的前提下进行。对国内人工智能大模型的发展将带来更加明确的伦理要求和方向,促使相关企业和研究机构更加关注伦理问题,并加强伦理风险的评估与管理。

伦理风险表现在哪些方面?

事实上,业界有关于算法模型、人工智能在伦理方面的探讨从未停歇过。据外媒报道,澳大利亚墨尔本西部赫本郡的市长布赖恩•胡德表示,ChatGPT错误地将他列为因贿赂犯罪人员。他于3月21日向ChatGPT的开发商OpenAI写信,要求他们在28日内修复这一错误,否则将对其提起诉讼。一旦提起诉讼,这将是全球首例针对生成式AI的诽谤诉讼。

当地时间4月4日,加拿大隐私专员办公室(OPC)宣布对ChatGPT开发公司OpenAI展开调查,该调查涉及指控“OpenAI未经同意收集、使用和披露个人信息”。这也是继意大利以后全球第二个对OpenAI开展调查的国家。

除意大利、加拿大外,德国、法国、爱尔兰、西班牙等国的监管部门都表示正在密切关注ChatGPT的数据安全问题。

以ChatGPT为代表的大模型等,仍在持续翻涌热浪,各企业纷纷追赶浪潮,其中关于数据隐私安全、社会伦理等威胁论甚嚣尘上。“能力越强,责任越大”,大模型的发展面临社会和伦理风险,如何规避相关风险已引起国际社会的广泛关注。

郭涛表示,人工智能算法模型的伦理风险主要表现在数据隐私、安全威胁、算法歧视和人工主体权利等方面。其中,数据隐私是指人工智能算法在处理个人信息时,可能会泄露用户的隐私信息;安全威胁是指人工智能算法可能会被黑客攻击,从而导致用户的信息被窃取;算法歧视是指在人工智能算法的运行过程中,由于算法本身的缺陷,可能会导致对某些群体的歧视;人工主体权利是指人工智能算法可能会对人类主体产生不利影响,如对人类主体的生命、财产等造成威胁。

此前,为应对AI可能带来的伦理和社会影响,微软在内部成立了人工智能伦理道德委员会。

科技部国家科技专家库专家周迪介绍,这次将科技伦理拓展到了大模型领域,主要是防止在该方面可能存在的风险。“这和国际也是同步的。国外科技企业设立专门的科技伦理委员会已经成为常态,Facebook、Google、索尼、微软等科技巨头均设立有自己的伦理委员会。”

周迪还指出,引入伦理审查机制以后,一个新的AI框架或产品是否能够面世将不只是取决于市场、资金、技术等因素,还要考虑伦理因素。

规范之下才能更好发展

根据赛迪顾问发布的《2023大模型现状调查报告》显示,截至2023年7月底,国外累计发布大模型138个,中国则累计有130个大模型问世。《中国人工智能大模型地图研究报告》显示,从全球已发布的大模型分布看,中国和美国大幅领先,超过全球总数的80%,其中,参数在10亿规模以上的大模型中国已发布79个。

值得注意的是,资料显示,ChatGPT早期3.0版本的参数量已达到1750亿个,4.0版本的参数量更是达到1.8万亿个,训练数据的单位数量更是达到惊人的13万亿。

人工智能发展至今,已经成为全球新一轮科技革命和产业变革的核心驱动力。当前,利用大数据加大算力、加强算法形成超大规模智力模型,已成为新一代人工智能生态的核心。

是否有必要对于发展越来越快的人工智能等做出规范?河南泽槿律师事务所主任付建认为,科技发明应当遵循科技伦理,如果其违反科技伦理、与人类社会基本道德准则等相悖,在萌芽时期就应当被控制,待其发展到一定规模再进行规制可能为时已晚。

围绕科技伦理共建,企业方面也在行动。例如,9月8日上午,外滩大会“AI科技伦理”见解论坛在上海举行。众多专家在会上提及引发热议的“AI换脸”、人脸识别等问题。同时,蚂蚁集团在论坛上宣布启动大模型伦理共建计划。

此外,大模型科技伦理审查在法律层面也没有障碍。郭涛指出,《中华人民共和国科学技术进步法》、《中华人民共和国网络安全法》、《中华人民共和国数据安全法》等科技伦理审查的相关的法律、法规和办法等也已经出台,对人工智能科技伦理审查的范围、标准、程序、责任等方面进行了规定。

当然,规范并不意味着未来不再发展。北京大学计算机学院教授黄铁军曾指出,在大模型的发展过程中,也存在一些本身就存在的风险,比如模型学习的知识有哪些是不符合伦理和原则的,这些风险可以预先控制;但也存在一些风险,是技术不断进步所带来的,那它的解决方式也需要通过技术手段来不断地解决,“解铃还须系铃人”。如果因为存在潜在的一些问题就不发展这个技术了,是不符合科技发展规律的。

(责任编辑:综合)

    相关内容
    精彩推荐
    热门点击
    友情链接