权威机构没说过的症状从何而来
针对XBB.1.5毒株,圈群热传的“拉肚子”“大小便失禁”等“症状”从何而来?
上海辟谣平台溯源发现,这些“症状”大多来自朋友圈或圈群聊天的推测,且发言者不是权威机构和专业医生,转发者也并非来自权威机构或专业人员。
例如,发朋友圈称“XBB.1.5会攻击心脑血管、引发腹泻而导致蒙脱石散一夜脱销”的当事人接受媒体采访承认,“朋友圈的所有内容都是我自己搜索所得,自己总结,但是主攻心脑血管和拉肚子事后忘记出处,所以我发了第二条朋友圈说明了。”
然而,不论是“忘记出处”还是“没有出处”,该网民传播的都是错误信息,最终因广泛传播而引发误解。
与之类似,近期这条“感染XBB.1.5会大小便失禁”的圈群聊天记录同样经不起推敲:聊天对象不明确,无法判断聊天者的身份;聊天称北京有人感染,却没有患者、地点、是否真的感染了XBB.1.5等具体信息。总之,仅从聊天记录,根本无法判断相关内容是否真实。然而,这条“无头无脑”的消息却再次被转发。
从近期涉疫谣言看,不负责任的言论和不加辨别随意转发,是谣言频发的重要原因。部分网民为了博取关注,编造身份、编造事件,如某网民虚构身份称自己是病毒学博士且在5天内感染了两种不同的毒株;也有部分网民是看热闹“不嫌事大”,故意截取那些不负责任或不可靠的言论传播。
总而言之,目前所有关于“感染XBB.1.5会引发严重腹泻”的言论都来自部分网民揣测或故意编造。加上部分网民不了解情况,一传十十传百,才出现了让人啼笑皆非的“蒙脱石散脱销”“囤积纸尿裤”等现象。上海辟谣平台特别提醒,目前多方均对该话题辟谣,希望公众不要再相信并传播那些无中生有、夸大其词的信息。
朋友圈及圈群聊天不能太随意
互联网并非法外之地,发布及传播不负责任的言论,都可能要承担法律责任。
发朋友圈称“XBB.1.5会攻击心脑血管、引发拉肚子”的当事人接受媒体采访时表示,自己已经在当地派出所做了笔录。但因其只是将相关言论发在朋友圈并没有主动散布到微信群、微博等公众平台,所以民警只是对他进行了批评教育。
“没有主动传播”让该网民免于行政处罚。但是,并非所有的不负责言论都能免于处罚。例如,那名编造“病毒学博士5天内感染两种不同毒株”的网友,就被公安机关依法处以行政拘留。
相关法律明确了在各种社交平台、圈群聊天中发布不实信息需要承担的法律责任。例如,治安管理处罚法第25条提到,散布谣言,谎报险情、疫情、警情或者以其他方法故意扰乱公共秩序的,处5日至10日拘留,并处500元以下罚款;情节较轻的,处5日以下拘留或者500元以下罚款。刑法第291条提到“编造、故意传播虚假信息罪”明确,编造虚假的险情、疫情、灾情、警情,在信息网络或者其他媒体上传播,或者明知是上述虚假信息,故意在信息网络或者其他媒体上传播,严重扰乱社会秩序的,处3年以下有期徒刑、拘役或者管制;造成严重后果的,处3年至7年有期徒刑。
在涉疫谣言中,有不少是个人在圈群聊天或发布在朋友圈等社交空间后被截屏传播的。由此可见,社交平台并不是私密空间,都带有一定的公开性质。何况大部分人在社交平台发布信息时,不会声明禁止外传,这意味着相关信息会被再次传播。与之类似,在圈群聊天,尤其是那些人数众多、聊天者未必互相认识的圈群中,任何一个人的言论都可能被截屏传播到圈群之外,而且在截屏过程中也不排除被断章取义。
可见,在社交平台发表未经证实、个人猜测等言论,都可能造成负面影响。因此,建议网民在社交平台或圈群发言时,不要太随意,更不要发布未经证实、纯属个人揣测的消息,避免引“谣”上身。
报告显示:超六成受访者认为应强制企业公开算法******
光明网讯(记者 李政葳)“当前,国内对于算法治理的基本思路和框架都是清晰的,而分级分类精准治理的模式应当可以解决如何落实的问题。”在日前举办的“2022啄木鸟数据治理论坛”上,谈及算法治理的现状,清华大学人工智能国际治理研究院副院长、人工智能治理研究中心主任梁正表示,算法分级分类本身不是目标,而是要针对不同风险场景配备不同监管规则。
论坛由南都个人信息保护研究中心联合清华大学人工智能国际治理研究院、人工智能治理研究中心(清华大学)主办。其间,南都个人信息保护研究中心发布《算法应用与治理观察报告》《个人信息安全年度报告》《平台经济反垄断观察报告》。
记者了解到,《算法应用与治理观察报告(2022)》,梳理了国内外的多项法规,结合热点事件及应用场景呈现了算法治理现状,并发布千份算法治理调查问卷了解公众对算法公开和算法治理的了解程度和基本态度,最后基于多方调查分析,给出了当前算法趋势观察以及未来治理方向建议。
报告发现,目前国内算法治理仍处于早期探索阶段,企业的算法公开主要依靠官方的互联网信息服务算法备案系统,或在舆情事件发生之后。调查问卷结果显示,近半受访者承认算法让自己的使用体验更好,但仅一成受访者认为企业算法公开做得很好,逾六成的受访者称曾遭遇“大数据杀熟”;超过六成的受访者认为应该强制企业公开算法。
“在数据、算法方面治理政策进展显著,在平台与应用方面的政策和落地尚需加紧。”中国科学院人工智能伦理与治理研究中心主任、国家新一代人工智能治理专委会委员曾毅认为,目前人工智能伦理有三个相当紧迫的问题需要被正视:首先,人工智能应当被适度使用;其次,目前人工智能服务知情同意落地艰难,被迫知情同意普遍存在;最后,目前用户数据的授权撤销在人工智能服务中存在巨大挑战,需要监管和更高层的网络服务提供方联合提出更合理的政策与解决方案。
针对日前发布的《互联网信息服务深度合成管理规定》,中国政法大学数据法治研究院教授张凌寒表示,从算法治理角度来说,深度合成管理规定与之前的算法推荐管理规定的思路有所不同,前者采用了一种“三位一体由的数据与技术规范。
具体来讲,由于深度合成技术的门槛较高,技术支持者也被纳入了监管范围内。比如,深度合成服务提供者提供智能对话、合成人声、人脸生成、沉浸式拟真场景等服务,应当进行显著标识,这就将更重的责任落在了服务提供者身上。
中国社科院科技和社会研究中心主任段伟文提到,算法治理需要构建可信任的算法认知,而这需要产业和消费者的共同努力:产业要努力提升算法精准性、透明度,减少偏见,减少歧视;消费者则需要提高数字素养,提升算法意识,加强在人机互动中自主性、控制感和协同意识。
(文图:赵筱尘 巫邓炎)