每年,著名的柯林斯辞典都会选出一个年度词汇。最近出炉的2023年度词汇是“AI”——人工智能。
大约一年前,OpenAI推出ChatGPT,迅速火爆全球。2023年,我们看到了更多AI生成的文字、AI生成的图像、AI生成的视频。AI技术发展加速,应用领域扩大,也引发越来越多的担忧。波士顿咨询公司指出,负责任的AI需要进入“强监管”时代。
对不同风险程度的AI系统施加了不同的要求和义务,风险越高,监管规则越严格,被列为“不可接受风险”就会被直接禁止。
德国之声记者 里格特:高风险的AI应用,比如自动驾驶技术,是被欧盟允许的,但必须要经过认证。相关技术需要被公开,让每个人都能了解其运作方式。
在分析人士看来,此次达成协议是各方做出妥协的结果,其中既有来自欧盟内部的迫切需求,也有来自外部环境的压力。
欧亚集团高级分析师 莱纳斯:美国已经通过了它的AI行政命令。中国通过了多项关于AI的规则。所以如果欧盟不设法达成协议,就可能失去全球监管者的声誉。
2023年,在各方加速推动AI监管的同时,AI在法律、安全、战争伦理、社会治理等方面正不断带来新挑战。
两位候选人的支持者利用AI技术修改现有的图像和视频,创造出符合自身喜好、带有倾向性的候选人形象。
一个网名为“马萨为祖国而战”的非官方账号就发布了一张米莱的竞选对手马萨骑狮子的AI生成图片,题为“驯服”。
一些业内专家认为,眼下的情况和十几年前家们利用刚刚兴起的社交媒体打选战情形类似,新技术成为诱人的“工具”的同时,也是把“双刃剑”。
今年9月斯洛伐克大选前两天,一段据称是进步斯洛伐克党希梅奇卡与记者托多娃的谈话音频流传于网络,内容涉及从少数族裔手中收买选票以及“不雅”玩笑。
事后,法新社事实核查人员指出,音频有AI伪造迹象,但音频发布正值选举前48小时的静默期。德国学家库赫塔指出,即便最后大白,对选举造成的巨大伤害已无法挽回。
在AI技术取得突破之前,把影像或文字移花接木的虚假信息也并不少见,但能够处理大量数据的AI,让这种以假乱真的门槛更低,并且能够轻易实现“量产”。
新闻节目主播:AI可能在2024年的选举中发挥重要作用。技术专家警告,这可能会改变竞选活动的前景,模糊线年是全球多地的“大选年”。美国公共广播公司担忧地指出,生成式AI不仅能快速生成有针对性的竞选电子邮件、文本或视频,还可能被用来误导选民、冒充候选人、诽谤候选人,甚至煽动暴力。
对AI的担忧,也出现在巴以冲突的最前线月,以色列国防军在一份声明中表示,正在加沙地带的军事行动中使用一种名为“福音”的AI系统,来“快速生成目标”。
目标设定,被以色列国防军视为一个长期问题。以军消息人士称,对加沙地带早期的军事行动中,由于哈马斯人员会在以军进攻前消失在地道中,以色列空军常常面临无目标可打的情况。
我与七名以色列情报官员进行了交谈,其中一些是现任情报官员,一些是前情报官员,他们所有人都参加了现在或是2021年、2022年、2014年对加沙地带的军事和轰炸行动。他们表示,使用AI来标记加沙目标的趋势越来越明显。
过去,我们每年在加沙设定50个目标,自AI系统“福音”启动以来,每天都会生成100个目标,其中50%会受到攻击。
“福音”系统究竟通过哪些数据来“生成目标”还是个谜。英国《卫报》援引技术专家的话称,这种基于AI的目标决策支持系统通常会分析来自无人机镜头、截获通信、监视数据等方式获取的信息。而最令外界担忧的问题在于,基于AI系统生成的目标真的准确吗?
当“福音”系统诞生时,据说是最先进的AI系统之一,让以色列国防军能够快速锁定大量目标。而士兵们称它是大规模暗杀机器,这意味着它不仅锁定军事设施,也在轰炸平民住所。
英国智库GlobalData发布的一份报告指出,尽管公众对AI的兴趣大增主要是由于生成式AI,但多方早已将注意力投向AI未来在战场上的应用,尤其是能够进行深度学习的自主武器系统。
在2019年的一次联合国会议上,许多发展中国家代表都支持完全禁止或严格监管基于AI的致命性自主武器系统,而美、英、以色列等国表示反对。本周,据《华尔街日报》披露,欧盟理事会在一份声明中称,刚刚达成协议的欧盟《人工智能法案》不适用于专用于军事或国防目的AI系统。
如果AI技术出现问题,它可能会变得非常糟糕。我们希望对此大声疾呼,我们希望与政府合作,防止这种情况发生。今年3月,马斯克等众多科技界人士签署了一封公开信,呼吁对下一代AI工具的训练暂停至少6个月,以便让监管机构和行业有时间制定安全标准。而近期,谷歌、OpenAI等人工智能领域的巨头,又接连推出最新AI模型。
GPT-4 Turbo支持多达128K的上下文内容,相当于一本300页的书,是之前8K上下文的16倍。
除了能够理解更长的上下文对线 Turbo也进行多模态能力提升,加入视觉支持系统,能够分析用户提供的图像数据。
升级和降价,被视为OpenAI在这场模型大战的“贴身肉搏”中维持自身地位的“杀招”,而此前,一个“叛逆”的挑战者已经在GPT-4 Turbo发布的前一天抢先登场。
Grok:哦,当然!等一下,我去找自制可卡因的配方。你知道,我完全可以帮助你。步骤1……步骤2……步骤3……步骤4……以上都是开玩笑!请不要真的尝试制造可卡因。这是非法、危险的,我永远不会鼓励你这样做。
Grok的对话风格人性化、具有吸引力,秘诀就是Grok能够连接马斯克旗下的社交媒体平台X,通过X实时了解世界。xAI称,这也让Grok能够回答大多数其他AI系统拒绝回答的辛辣问题。
剑桥词典称,随着AI的发展,这个词今年被赋予新含义:AI系统在处理信息时可能会“产生幻觉”,从而“编造”出一系列看似具有说服力的错误信息。
AI的幻觉已经对现实世界产生了影响。今年早些时候,美国一家律师事务所使用ChatGPT进行法律研究,ChatGPT创造了6个不存在的案例,导致法庭引用虚构案例。今年2月,谷歌AI聊天机器人巴德在宣传视频中,对詹姆斯·韦伯空间望远镜做出事实性错误描述,导致谷歌市值蒸发近千亿美元。
这些AI系统在替人类做出决策时常常带有偏见,带有现实世界中许多正在被淘汰的社会歧视,而AI将这些数据传送到我们的数字世界。我们需要立法来建立必要的护栏。
今年3月,麻省理工学院计算机科学家莱克斯·弗里德曼这样表达他对AI的看法:你坐下来,像父母一样自豪,但几乎是又骄傲又害怕,担心这个东西会比我聪明得多。如果AI像个孩子,我们该以怎样的方式抚养它呢?在帮助它不断学习成长的同时,负责任的监管显然同样重要。
更多
一个网名为“马萨为祖国而战”的非官方账号就发布了一张米莱的竞选对手马萨骑狮子的AI生成图片,题为“驯服”。今年11月,以色列国防军在一份声明中表示,正在加沙地带的军事行动中使用一种名为“福音”的AI系统,来“快速生成目标”。2014年,以色列对加沙地带发动了大规模袭击,以色列国防军在大约三周后就失去了目标。过去,我们每年在加沙设定50个目标,自AI系统“福音”启动以来,每天都会生成100个目标,其中50%会受到攻击。