5月24日,科大讯飞午后股价跳水,盘中一度跌超9%,截至当日收盘,公司股价报56.57元/股,收跌4.26%。
21世纪经济报道记者注意到,当日互联网上出现了两则关于科大讯飞的传言。其中一则消息称,美国正在考虑是否将科大讯飞、美亚柏科等加入“实体名单”,禁止它们使用美国的组件或软件。
对此,科大讯飞在盘后回应道,该条信息属于对2019年5月23日相关信息的复制粘贴。科大讯飞已于2019年10月被列入实体清单,公司拥有全球领先的人工智能核心技术,这些核心技术全部来自于科大讯飞的自主研发,拥有自主知识产权。被列入实体清单后,科大讯飞已迅速切换到以国产供应链为主的非美供应链体系,继续为客户提供优质的产品和服务,业务运营未受到重大影响。
另一则消息则称“科大讯飞被曝涉嫌大量采集用户隐私数据,并将其用于人工智能研究”,引起市场广泛关注。21世纪经济报道记者发现,这一传言通过生成式AI生成内容,提问者要求AI撰写“一篇科大讯飞出现重大风险的警示文”。
之后,科大讯飞回应称,股价下跌系某生成式AI写作虚假小作文导致,谣传风险为不实消息。
疾步跑入后真相时代
科大讯飞在投资者互动平台上表示,使用大模型编造虚假信息属于违法行为,将受到法律制裁,当前已有刑事案例。对于恶意抹黑、捏造虚假信息,损害名誉权的机构或个人,公司会借助法律武器保护公司和投资者利益。
科大讯飞在回复中还提到了一起利用AI人工智能技术炮制虚假不实信息的案件。21世纪经济报道记者了解到,该案件近期由甘肃省平凉市公安局网安大队侦破,这也是自今年1月10日《互联网信息服务深度合成管理规定》实施后,甘肃省侦办的首例案件。
据悉,4月25日,平凉市公安局崆峒分局网安大队民警在巡查过程中发现,某百度账号出现一篇标题为“今晨甘肃一火车撞上修路工人致9人死亡”的文章,初步判断为信息虚假不实。网安民警随即开展工作,发现共计21个百度账号均在同一时间段发布该文章,文章内容地点除平凉市崆峒区外还涉及兰州、陇南、定西、庆阳等地,文章点击量已达1.5万余次。经查,涉案百度账号均为广东深圳某自媒体公司所有,公司法定代表人洪某弟有重大作案嫌疑。经过对前期的线索侦查和嫌疑人的行动轨迹研判,网安大队立即组织民警赶赴广东省东莞市实施抓捕。
嫌疑人洪某弟交代,今年4月,他通过微信好友了解到网络赚取流量变现方法,随即产生了利用信息流量牟利的想法,随后便在全网搜索近几年的社会热点新闻。为规避百家号查重功能,其通过近期火爆的ChatGPT人工智能软件对新闻时间、地点等各项要素进行修改编辑后,利用软件上传发布到某自媒体平台,赚取关注和流量进行非法牟利。
5月,甘肃省平凉市公安局崆峒分局对犯罪嫌疑人洪某弟依法采取刑事强制措施,并对其网络平台账号予以封停。目前,案件正在进一步办理中。据初步了解,洪某弟利用科技手段编造虚假谣言信息,并在互联网大肆散布,其行为已触犯《中华人民共和国刑法》第二百九十三条第一款第(四)项之规定,涉嫌寻衅滋事罪。
实际上,一段时间以来,利用AIGC编造、传播虚假信息已不是“新鲜事”,人类社会已然步入“后真相时代”。
美国时间5月22日上午,一张“五角大楼附近爆炸”的图片在海外社交网络上疯传。据媒体报道,美国国防部发言人证实,这张在谷歌搜索和推特上疯传的图片是一条“虚假信息”,五角大楼所在的阿灵顿消防和急救部门在推特上发文称 :“没有爆炸或事故”,也没有“对公众造成直接危险或危害”。随后,五角大楼保卫局(PFPA)推特账号也转发了阿灵顿消防和急救部门的该条推文。
这一虚假信息广泛流传后,美国股市出现了明显震荡。道琼斯工业平均指数在上午10点06分到10点10分之间下跌了约80点,标普500指数从上午10点06分上涨0.02%到上午10点09分下跌0.15%。辟谣声明发布后,指数开始回升。
AIGC何以成为谣言“推手”?
AIGC的发展正在给虚假信息治理提出前所未有的挑战。在“越来越像人类”的同时,人工智能所具有的“幻觉”“涌现性”等特点带来的伴生风险也引发各界关注。
清华大学《AIGC发展研究报告1.0版》指出,人工智能突然出现一种以前未设定过的能力,这是涌现的表象,其具有八大特征:非线性、多尺度、自组织、自适应、难以规约、信号传递、反馈循环、历史依赖。
AIGC为什么能成为谣言“推手”?南开大学法学院副院长、博导,中国新一代人工智能发展战略研究院特约研究员陈兵教授表示,AIGC技术日渐发展成熟,可以完成包括写邮件、代码、新闻报道以及论文在内的多种任务,且表述内容与人类对话风格相似,一般人难以区分。此外,其使用门槛和成本低,生成效率高,能够在短时间内生成大量虚假信息,从而迅速淹没真相。
中国政法大学数据法治研究院教授张凌寒指出,虚假信息一直是互联网治理的痛点与难点,深度合成技术的广泛应用则对虚假信息的治理提出了更高的要求。俗语说“耳听为虚,眼见为实”“有图有真相”,可见照片、视频在公众潜意识中的真实性远胜文字。而深度合成技术则恰恰颠覆了这一公众认知,其可以伪造音频、图片、视频,捏造人物的行为与语言。作为人工智能深度学习领域的一个分支,深度合成技术在近几年迅速兴起,为政治、军事、经济犯罪甚至恐怖活动等提供了新工具,带来严峻的安全挑战。
在北京航空航天大学法学院副教授、北京科技创新中心研究基地副主任赵精武看来,ChatGPT等生成式AI最显著的技术优势就是能够以贴近人类思维和表达的方式呈现信息,这就导致网民更难以甄别其生成信息的真伪,加之人工智能技术能批量生成信息,海量且高效的网络谣言生成,显然会导致官方辟谣、账号封禁等传统虚假信息治理措施难以发挥预期效果。
“追溯网络账号的实际使用人、认定信息传播者的主观状态等,都是追责的难题。”赵精武说。
虚实混融中,如何守住真实底线?
深度合成、人工智能技术火爆出圈,如何平衡创新发展与风险防范成为必答题。
《互联网信息服务深度合成管理规定》要求,“深度合成服务提供者和使用者不得利用深度合成服务制作、复制、发布、传播虚假新闻信息。”
张凌寒指出,目前管理规定有一些防范措施,比如要求实名制注册,要求服务者尽到提示义务,但是目前用户使用AI技术侵权仍是按照事后追责的路径,尚未有一个事前有效、具体的确保用户合法使用的机制落地。
“深度合成技术生成的信息内容一旦传播,其损害仍然难以弥补,这就对辟谣机制和澄清机制的建设提出了要求。”张凌寒说。
今年4月,国家网信办发布《生成式人工智能服务管理办法(征求意见稿)》,其中提到,“利用生成式人工智能生成的内容应当真实准确,采取措施防止生成虚假信息。”
种种案例表明,AIGC可能成为传播谣言的高效工具。当AI生成的答案涉及侵权时,法律责任该如何分配?
“法律责任承担需要视情况分析。”陈兵解释道,如果用户故意输入指令让AI聊天机器人生成针对他人的侵权内容对外发布,此时AI充当的是侵权工具的角色。《民法典》第一千一百六十九条规定,教唆、帮助他人实施侵权行为的,应当与行为人承担连带责任,AI运营公司的责任可根据AI产品在生成侵权内容过程中是否起到实质性帮助进行判定。
“若用户在输入的指令中提供了包含他人隐私、虚假事实等关键信息,在无需使用AI、通过其他工具也可完成侵权行为的情况下,AI对于侵权内容的生成仅起到较低的辅助作用,此时AI运营公司对于侵权行为的发生并不需要承担侵权责任。”陈兵说。
对于如何统筹安全与发展的问题,陈兵建议,可根据AIGC的特性,参照“避风港原则”,完善运营公司的抗辩事由,设置相应的机制,明确规定当运营公司满足相应条件或者履行一定义务的情况下,可以免责或者减轻民事责任。
“现有侵权法体系能够处理AI运营公司的民事责任问题,但有必要为新兴事物发展预留一些空间,这意味着传统的基于工业经济下的侵权责任规则,需要回应数字经济下人工智能产业发展,并做出相应调整。”陈兵表示。
21世纪经济报道记者 钟雨欣 北京报道