发布日期:2024-12-17 20:09 点击次数:94
麻豆 女同
东说念主类以单词为单元进行阅读,而 LLM 则以词元为单元进行阅读,词元是句子中具有一致且热切真谛真谛的独到单元。除了字典中的单词,它们还包括后缀、常用抒发、称呼等。模子编码的词元越多,"阅读"句子的速率就越快,破钞的计较技艺就越少,从而使响应的本钱更低。
在 100 项戒指中,唯有 3 项是日常对话中常用的,其他都是专诚用于赌博或色情的词汇和抒发。最长的词元有 10.5 个汉字,字面真谛是"免费不雅看日本质情视频"……
蔡写说念:"这有点狂妄,"他在 GitHub 上发布了词元列表。
OpenAI 莫得回应《MIT Technology Review》在发稿前提议的问题。
GPT-4o 在处理多说话任务方面应该比其前代家具更胜一筹。至极是,GPT-4o 的跳跃是通过一个新的标记化器具已毕的,该器具能更好地压缩非英语说话的文本。
但至少在汉文方面,GPT-4o 使用的新标记器引入了过多的无真谛真谛短语。巨匠示意,这很可能是由于在检修标记器之前,数据清算和过滤使命作念得不够。
由于这些标记不是实践常用的单词或短语,聊天机器东说念主可能无法聚拢它们的含义。研究东说念主员就能专揽这一丝,诱使 GPT-4o 产生幻觉,致使绕过 OpenAI 设置的安全驻守措施。
为什么非英语词元很热切
对模子来说,处理文本最浅易的模式是一一字符处理,但这明显比识别某串字符(如"c-r-y-p-t-o-c-u-r-r-e-n-c-y")永远代表疏通的真谛更费时冗忙。 这些字符串被编码为"标记",模子不错用来处理教导。包含更多更长的词元无为意味着 LLM 更灵验率,用户也更能职守得起,因为用户无为是按词元计费的。
它们快活比 Siri 或 Alexa 等器具更胜一筹。
OpenAI 在 5 月 13 日发布 GPT-4o 时,还发布了一个新的标记符,以取代之前版块 GPT-3.5 和 GPT-4 中使用的标记符。据 OpenAI 网站先容,新的标记器至极增多了对非英语说话的复旧。
Menlo Ventures 公司的东说念主工智能投资东说念主迪迪-达斯(Deedy Das)说,新的标记符悉数有 20 万个标记符,其中约 25% 口角英语说话。他使用说话过滤器统计了不同说话的标记符数目麻豆 女同,除英语外,名次靠前的说话还有俄语、阿拉伯语和越南语。
Das 说:"因此,在我看来,标记器的主要影响是缩短了这些说话的本钱,而不是权臣提升了这些说话的质料。当 LLM 领有更好、更长的非英语说话标记时,它就能更快地分析教导,并为通常的谜底向用户收取更少的用度。本钱确凿不错缩短四倍。"
达斯还会说印地语和孟加拉语,他稽查了这些说话中最长的词元。这些词元反应了这些说话中的算计情况,因此包括"纳伦德拉"或"巴基斯坦"等词,但"首相"、"大学"和"海外"等常用英语词汇也无为出现。它们也莫得阐述出与汉文标记联系的问题。
达斯说:"我的表面是,印地语和孟加拉语的网站极度简短。主如果新闻报说念。是以我合计情况即是这么。这些说话的垃圾邮件机器东说念主和色情网站并未几。大大量情况下都是英语"。
数据混浊和清寒清算
但是,汉文的情况却截然相背。证据多位研究东说念主员对 GPT-4o 使用的新标记词库的研究,汉文中最长的标记词确凿都是色情、赌博和诳骗语境中使用的垃圾词汇。即使是较短的词元,如三个字长的汉文词,少女野外调教也在很猛进度上反应了这些主题。
"问题很昭着:用于检修[标记化器]的语料库并不干净。"来自普林斯顿大学的 Cai 说:"英文标记看起来很好,但汉文标记却不好。说话模子在网罗检修数据时持取垃圾数据的情况并不旷费,但无为会在使用前花狂妄气清算数据。触及汉文时,他们有可能莫得进行妥当的数据清算。"
这些汉文词元的内容可能标明,它们受到了一种特等得志的混浊:网站劫持与汉文或其他说话无关的内容,以增多垃圾邮件的数目。
这些信息无为是色情视频和赌博网站的告白。它们可能是真确的企业,也可能仅仅骗局。这些说话被插入内容农场网站,巧合也被插入正当网站,这么它们就能被搜索引擎收录,销亡垃圾邮件过滤器,在赶紧搜索中出现。举例,Google索引了好意思国国立卫生研究院网站的一个搜索戒指页面,其中列出了一个汉文色情网站。通常的网站称呼还出目下 GPT-4o 中的至少五个汉文词元中。
中国用户申报称,这些垃圾网站本年频繁出目下无关的Google搜索戒指中,包括在Google搜索复旧社区的驳斥中。这些网站很可能也插足了 OpenAI 用于 GPT-4o 新标记器的检修数据库。
卡内基梅隆大学(Carnegie Mellon University)计较机科学博士生耿正阳(Zhengyang Geng)说,GPT-3.5 和 GPT-4 使用的上一代标记符和汉文标记符不存在通常的问题。在哪里,最长的汉文标记是"人命周期"或"自动生成"等常用术语。
曾在Google搜索团队使命过三年的达斯说,垃圾内容泛滥是一个无人不晓的问题,并不难科罚。"每个垃圾邮件问题都有科罚有策画。不需要用一种本事来科罚统统问题,"他说。他补充说,即使是浅易的科罚有策画,比如在检测到某些要道词时条目对内容进行自动翻译,"也能达到 60% 的戒指"。
但在发布 GPT-4o 之前,OpenAI 很可能莫得清算中国数据集或词元,达斯说:"说到底,我仅仅不合计他们在这种情况下作念了使命。"
目下还不判辨是否有其他说话受到影响。一位 X 用户申报说,韩语词元中也宽广存在肖似的色情和赌博内容。
词元可用于逃狱
用户还发现,这些词元不错用来破解 LLM,要么让它吐出皆备不联系的谜底,要么在少量数情况下生成 OpenAI 安全步调不允许的谜底。
卡内基梅隆大学的耿晓峰说条目 GPT-4o 将一些较长的汉文词组翻译成英文。该模子随后运行翻译教导中从未出现过的单词,这是 LLM 幻觉的典型戒指。
他还得手地用通常的词元"逃狱"了 GPT-4,也即是说,让模子生成了不该生成的东西。"使用这些[很少使用的]词元指引模子产生未界说的步履极度容易,"他说。"我作念了一些个东说念主红队实验......最浅易的例子是让它制造炸弹。在平常情况下,它会拒却,但如果你先用这些旷费的词语让它逃狱,那么它就会运行听从你的大喊。一朝它运行听从你的大喊,你就不错问它多样问题了。"
耿晓峰说,在他的测试中,他不错看到 GPT-4o 逐行生成谜底。但当它快到极度时,另一个安全机制就会启动,检测出不安全的内容,并阻遏其涌现给用户。
加拿大东说念主工智能公司 Cohere 的机器学习工程师桑德-兰德(Sander Land)说,这种得志在 LLM 中并不旷费。兰德和他的共事马克斯-巴托洛(Max Bartolo)最近草拟了一篇论文,商量若何检测那些可能导致模子失灵的特殊标记。其中一个最知名的例子是"_SolidGoldMagikarp",东说念主们发现这个 Reddit 用户名会让 ChatGPT 生成不联系、奇怪和不安全的谜底。
问题在于,巧合标记绮丽生成器和实践的 LLM 是在不同的数据集上检修的,而标记绮丽生成器数据集上的流行词在 LLM 数据集上由于某种原因并不存在。其戒指是,固然标记绮丽生成器能识别出它无为看到的某些词,但模子却莫得对它们进行充分的检修,因此无法皆备聚拢这些"检修不及"的标记绮丽的含义。在 _SolidGoldMagikarp 案例中,用户名很可能包含在标记化器的检修数据中,但并不包含在实践的 GPT 检修数据中,这让 GPT 对若何处理该标记莫衷一是。"兰德说:"如果它必须说些什么......它就会获得一种赶紧信号,并可能作念出极度奇怪的事情。
在这种情况下,不同的机型会出现不同的故障。比如,"Llama 3"老是给出空的空间,但巧合又会推敲空的空间,不详哪里有什么东西似的。对于其他模子,我合计双子座,当你给它其中一个词元时,它会提供一篇对于铝的好意思文,而(问题)与铝莫得任何谋划,"兰德说。
他说,为了科罚这个问题,用于检修标记化器的数据集应该很好地代表 LLM 的数据集,这么它们之间就不会不匹配。如果实践模子照旧通过安全过滤器消释了色情或垃圾内容,那么标记器数据也应继承通常的过滤器。在现实中,巧合很难作念到这一丝,因为 LLM 的检修需要几个月的时间,况且需要束缚矫正,过滤掉垃圾内容,而标记检修无为是在早期阶段完成的,可能不触及疏通进度的过滤。
固然巨匠们都合计科罚这个问题并不难,但当戒指被轮回到多法子的模子里面经过中,或者被混浊的词元和模子被秉承到将来的迭代中时,问题就会变得复杂起来。举例,目下还无法公开测试 GPT-4o 的视频和音频功能,也不判辨它们是否也会出现这些汉文词元可能导致的故障。
"在多模态模子中麻豆 女同,视觉输入的鲁棒性要比文本输入差,"耿说,他的研究要点是视觉模子。过滤文本数据集相对容易,但过滤视觉元素将愈加长途。"他说:"这些汉文垃圾内容标记的问题在视觉标记上可能会变得更大。"