权威机构没说过的症状从何而来
针对XBB.1.5毒株,圈群热传的“拉肚子”“大小便失禁”等“症状”从何而来?
上海辟谣平台溯源发现,这些“症状”大多来自朋友圈或圈群聊天的推测,且发言者不是权威机构和专业医生,转发者也并非来自权威机构或专业人员。
例如,发朋友圈称“XBB.1.5会攻击心脑血管、引发腹泻而导致蒙脱石散一夜脱销”的当事人接受媒体采访承认,“朋友圈的所有内容都是我自己搜索所得,自己总结,但是主攻心脑血管和拉肚子事后忘记出处,所以我发了第二条朋友圈说明了。”
然而,不论是“忘记出处”还是“没有出处”,该网民传播的都是错误信息,最终因广泛传播而引发误解。
与之类似,近期这条“感染XBB.1.5会大小便失禁”的圈群聊天记录同样经不起推敲:聊天对象不明确,无法判断聊天者的身份;聊天称北京有人感染,却没有患者、地点、是否真的感染了XBB.1.5等具体信息。总之,仅从聊天记录,根本无法判断相关内容是否真实。然而,这条“无头无脑”的消息却再次被转发。
从近期涉疫谣言看,不负责任的言论和不加辨别随意转发,是谣言频发的重要原因。部分网民为了博取关注,编造身份、编造事件,如某网民虚构身份称自己是病毒学博士且在5天内感染了两种不同的毒株;也有部分网民是看热闹“不嫌事大”,故意截取那些不负责任或不可靠的言论传播。
总而言之,目前所有关于“感染XBB.1.5会引发严重腹泻”的言论都来自部分网民揣测或故意编造。加上部分网民不了解情况,一传十十传百,才出现了让人啼笑皆非的“蒙脱石散脱销”“囤积纸尿裤”等现象。上海辟谣平台特别提醒,目前多方均对该话题辟谣,希望公众不要再相信并传播那些无中生有、夸大其词的信息。
朋友圈及圈群聊天不能太随意
互联网并非法外之地,发布及传播不负责任的言论,都可能要承担法律责任。
发朋友圈称“XBB.1.5会攻击心脑血管、引发拉肚子”的当事人接受媒体采访时表示,自己已经在当地派出所做了笔录。但因其只是将相关言论发在朋友圈并没有主动散布到微信群、微博等公众平台,所以民警只是对他进行了批评教育。
“没有主动传播”让该网民免于行政处罚。但是,并非所有的不负责言论都能免于处罚。例如,那名编造“病毒学博士5天内感染两种不同毒株”的网友,就被公安机关依法处以行政拘留。
相关法律明确了在各种社交平台、圈群聊天中发布不实信息需要承担的法律责任。例如,治安管理处罚法第25条提到,散布谣言,谎报险情、疫情、警情或者以其他方法故意扰乱公共秩序的,处5日至10日拘留,并处500元以下罚款;情节较轻的,处5日以下拘留或者500元以下罚款。刑法第291条提到“编造、故意传播虚假信息罪”明确,编造虚假的险情、疫情、灾情、警情,在信息网络或者其他媒体上传播,或者明知是上述虚假信息,故意在信息网络或者其他媒体上传播,严重扰乱社会秩序的,处3年以下有期徒刑、拘役或者管制;造成严重后果的,处3年至7年有期徒刑。
在涉疫谣言中,有不少是个人在圈群聊天或发布在朋友圈等社交空间后被截屏传播的。由此可见,社交平台并不是私密空间,都带有一定的公开性质。何况大部分人在社交平台发布信息时,不会声明禁止外传,这意味着相关信息会被再次传播。与之类似,在圈群聊天,尤其是那些人数众多、聊天者未必互相认识的圈群中,任何一个人的言论都可能被截屏传播到圈群之外,而且在截屏过程中也不排除被断章取义。
可见,在社交平台发表未经证实、个人猜测等言论,都可能造成负面影响。因此,建议网民在社交平台或圈群发言时,不要太随意,更不要发布未经证实、纯属个人揣测的消息,避免引“谣”上身。
当我们可以享受人工智能的服务,人类能变懒吗?******
中新网北京12月10日电 “我对人工智能持非常乐观的态度,让人工智能服务好人类,符合我们所有人的共同利益。我们要让其变为现实。”
12月9日,国际人工智能协会前主席约兰达·吉尔在2022人工智能合作与治理国际论坛的主题论坛“人工智能引领韧性治理与未来科技”上如是表示。
2022人工智能合作与治理国际论坛由清华大学主办、清华大学人工智能国际治理研究院(I-AIIG)承办,中国新闻网作为战略合作伙伴。
在约兰达·吉尔看来,当前人工智能技术的发展,将提升人类的科研效率。
“现在的科研实验室,90%的时间都是花在了重复性、枯燥的、繁琐的工作,这样的业务模式并不好。”
她指出,科学的效率不应该这么低。“我们必须相信,如果我们能够把科学家在实验室中的枯燥工作,转化为自动化,人类就能够把更多时间花在有趣的事情上。”
这同时意味着,对人类的要求也提高了。
世界工程组织联合会前主席、中国新一代人工智能发展战略研究院执行院长龚克就认为,“当我们看到AI发展能够成为未来科学家的时候、能够成为越来越有用工具的时候,人如果要过一个有意义、有价值的一生,其实对我们的科学知识水平、道德水平提出了更高的要求。”
他直言,因为人类要去驾驭一个更有能力、更强大的的工具。“并不是说有了强大的工具,人就可以变得懒惰,人应该变得更聪明。”
联合国助理秘书长、联合国开发计划署政策与方案支助局局长徐浩良指出,“我们在呼吁制定国际标准,确保人工智能具有包容性、问责性和韧性。很多人提到人工智能的伦理标准等等,我们认为包容性在政策讨论及实践中都至关重要,所以社会要能够理解其收益和风险。”
显然,人类在获得人工智能“服务”的同时,如何防范由此带来的“风险”同样应引起关注。
约兰达·吉尔直言,安全系统的建立对于人类和设施的安全非常重要。“如果没有人工操作员的话,它是无法保证安全的。但现在有很多人工智能在安全方面的系统在没有得到足够提前训练的情况下,就被部署出去了,这是非常值得关切的。”
美国国家工程院外籍院士、北京智源人工智能研究院理事长张宏江提出,人类在设计人工智能系统时,要考虑到人工智能系统本身知道自己需要由人类介入,这是非常重要的一点。(完)
(文图:赵筱尘 巫邓炎) [责编:天天中] 阅读剩余全文() ![]() 乐发彩票地图 |