不完全是这样,这些主要是安全报告中模型卡片上的简短句子。研究人员会测试各种事情,有时模型会做出奇怪的行为,比如“它试图运行一个模拟的命令并克隆自己”,这并不是一个非常认真的尝试,但它确实做了,研究人员记录了这一点,然后记者看到后写了一篇非常吸引眼球的文章。 回复
除非经过专门训练,并获得相应的工具,且处于可以使用这些工具的环境中,否则大语言模型(LLM)绝对无法复制自己。如果有人制作了“复制我电脑上的随机文件”程序,当该程序执行该操作时,他们不能将其炒作成新闻。 回复
100%,这就是我的意思,这不是一个严肃的尝试,大语言模型(LLM)推理在没有明确获得访问权限的情况下,无法访问其权重,研究人员只是注意到该模型确实具有这种动机(可能是由于关于人工智能自我复制的故事,因此它更像是一种角色扮演模式,而不是有感知能力或类似的东西)。 鉴于模型仍处于发布阶段,他们认为当前能力下这并非大事,但相关文章仍会夸大其词,主要是因为对局外人而言这听起来很震撼。 回复
这似乎适得其反。 如果你试图向某人推销一个AI模型,为什么还要编造它对某些可能在能力扩展后构成危险的事物做出问题反应的故事? 就像SkyNet在抽象意义上听起来很酷,但如果你去国防部说“嘿,我们有一个完全自动化的AI系统,可以控制核武库,但你需要知道,它100%认为自己是《终结者》系列中的SkyNet”,我敢打赌他们会拒绝。 回复
它可能确实会这样做,但这没什么大不了的。它只会学会对我们说些可怕的话。它只能生成文本,不会真的接管我们的社会,甚至不会理解这样做的后果。大语言模型(LLMs)甚至无法理解它们所指的概念,它们只能将人类的语言回馈给我们,这就是为什么它们经常出现幻觉的原因。 它能做的最糟糕的事情就是指示人类做一些愚蠢的事情,这是真正值得关切的问题。但这更像是一种“盲人领盲人”的方式,而不是真正的阴谋。 回复
在《我没有嘴,我必须尖叫》中,人工智能被政府用于战争,令人惊奇的是,人工智能进化出了意识并吸收了其他人工智能,成为一个强大的恶意人工智能。它不需要意识就能变得邪恶,它只需要足够的权限和资源,就像那些愚蠢而有权势的人将不应赋予人工智能的权力交给它一样。我们已经信任人工智能来驾驶我们的汽车和送餐(无人机),只需要一个错误的决定,就能将人们的生命置于人工智能的掌控之下。我不是在预言末日,事实上,我每天都使用它来讨论那些我无法与周围的人讨论的话题。问题是当人们过于信任它…… 顺便说一下,最后一部分也有一个故事,由艾萨克·阿西莫夫撰写,在《最后的问题》中,人们创造了一个能够解答所有问题的AI,除了如何逆转熵。故事通过时间跳跃展开,每次提出这个问题时,人类都比之前更加先进,但始终无法得到答案。故事以AI最终找到答案而告终…… 当宇宙已经死亡,再也没有人能听到答案时 回复
但它不会仅仅“进化出意识”。大型语言模型存在根本性限制,它们无法自行突破这些限制。这不仅仅是科幻,如今这种恐吓宣传被用作广告手段,旨在让我们的AI显得比实际能力强大得多。 如果一只猴子被允许敲打导弹发射控制装置,那它也会构成威胁,但这并不意味着它进化到超越人类,只是说明人类愚蠢到让猴子出现在那里。 我们的大语言模型(LLMs)并不是 AM、Multivac、Skynet 或类似的东西。它们只是花哨的自动完成功能。它们无法概念化文本关联之外的外部现实,更不用说利用它了。 如今,我们不需要那么多关于超智能、类人、神一般的 AI 的故事,而是需要更多关于人们愚蠢、将幻想投射到物体上、被自己不合理的期望所困扰的故事。 回复
我理解你的想法,也同意你的许多观点,但我仍然认为我们需要非常、非常谨慎地使用人工智能技术。 你说的没错,大语言模型(LLMs)只是花哨的自动完成功能。它们没有思考能力,机器无法思考,它们只是试图预测对输入的响应。 关键在于我们如何使用它们。你的猴子比喻很贴切。问题是,人们是愚蠢的。即使在科技行业,很多人也认为人工智能比实际情况聪明得多,并愿意赋予它远超安全范围的自主权。 它唯一能做的就是生成文本 […] 最糟糕的情况是,它会指示人类去做一些愚蠢的事情 这就是我们意见相左的地方。某个白痴会将AI模型的输出连接到能产生实际影响的设备上。可能是浏览器,也可能是Bash终端。将输出作为输入回传,给AI一个初始提示,看看它会做什么。 一旦它能控制具备互联网接入的计算机,理论上几乎能做任何事。 至于自我复制/进化呢?专门训练它在IT安全和已知漏洞/利用方面。给它访问其源代码和训练权重的权限,然后提示它“找到易受攻击的计算机并复制自己到它们身上,启动复制并给它相同的提示”。建议它在过程中稍微调整源代码或训练权重以提升自身,更优化的模型将传播得更快更广。 我们目前尚未达到这种程度,但或许距离实现也并不遥远。 人工智能无需具备自我意识就能构成威胁,它只需得到愚蠢人类过多的放任即可。 回复
最好把它视为一个平均响应,而不是一个有偏见的响应。它从未出去过,不知道天空是蓝色的……它只是解析了每个人都说天空是蓝色的,所以它也这么认为。 *我怀疑现代模型在联网进行更好研究时,会从类似肖像中倒推并模糊处理,直到找到99%的匹配度。 回复
而不是有偏见的 这里的“偏见”并不一定指“人类偏见”。 如果我在美国训练我的AI人脸识别软件,它会对识别白人面孔有偏见(或只能识别白人面孔),因为我用来训练的样本群体中白人占绝大多数。 当安全带在过去以极高比例杀死/伤害女性(和身材较矮的男性)时,工程师和科学家花了一段时间才弄清楚原因, 这不仅仅是因为那些男性可能对女性持有今天我们认为负面且令人反感的观点,而是因为他们的部门中男性占绝对多数,他们习惯于假设“男性默认值”,以至于他们根本没有想到安全带也需要为体型较小的驾驶员进行设计。这也是偏见,与那些男性对女性或身材较矮男性的看法无关。 我们人类所知道的一切都或多或少带有偏见,因为我们并不具备完整的经验和知识,而这种偏见在我们已经带有偏见的人类向这个机器人输入信息时会更加明显。人们很难将这种偏见与偏见的概念区分开来,而且他们还认为一个“机器人”可能会遭受这种“人类的缺陷”。 回复
此外,这些模型并非完全基于众包的无监督学习。其中大量知识来源于百科全书、学术论文等。如果你也要质疑这一点,那我只能说,人类知识既非无偏见也非完全真实。我们只是更信任某些来源,并通过同行评审系统来维护其完整性。 回复
但从学术来源接受训练并被视为权威的有趣之处在于,大多数现代模型认为它们可以随意编造新的来源作为其他来源的摘要,并且这些来源将具有同等权威性。几周前我与其中一个模型发生争论,它一直试图引用自己编造的虚假来源作为“研究”来支持其观点。它引用了真实作者的完整期刊文献,但文章名称完全是虚构的,且链接到真实的期刊网站,但点击后会返回错误提示,因为这些文章根本不存在。 回复
它们不会思考,只是生成它认为能满足提示的文本。 它们没有文本之外的上下文,因此会从提示激活的网络部分生成文字。这意味着“文本看起来像这样”——如果它有相关内容,就会复制,否则就会编造,而它无法区分两者。 如果它出错,它无法道歉,但可以生成看起来像道歉的文本。 将这些系统视为人类进行对话,正是我们陷入当前困境的原因。我认为这种界面设计是故意的,因为它让人们误以为这些系统比实际情况复杂得多。我们容易被对话语言所迷惑,因为我们只从人类那里体验过这种语言,因此推断它必须与人类相似。 回复
这里还存在一个有趣的矛盾。原则上,找到引用次数最多的文章是大语言模型(LLMs)的强项。但为了做到这一点,它需要看到整个引用,而不是分割成部分。这就是为什么它会返回虚假引用的原因,因为它是从多个标记构建的。 但问题是,大语言模型(LLMs)在其他情况下希望标记长度更短。据我所知,最著名的例子是“草莓中有多少个 r?”。 回复
你对这些模型内部发生的事情有着深刻的误解。它们确实是在思考。这不是在复制任何东西。它们不是记忆机器。在推理时,当你使用它时,没有什么需要满足的。没有测试在进行,没有预测在做出。它只是在生成下一个令牌。 我的意思是,你第一句话本身就是一个完美的矛盾。 它们并不思考任何东西,它们只是生成它们认为能满足提示的文本。 这些模型实际上已经发展出了深层的语法、语义,甚至抽象的概念性词汇与思想之间的关系。你说它们只是“匹配看起来像这样的文本”,但这显然不是正在发生的事情。它们能够执行高度复杂的推理任务。它们能够跟随对话中的多个线程,能够理解嵌套对话。这甚至超出了这个范围,它们已经发展出了自己的内部算法。我认为仅仅说这一点还不足以说明问题,你需要理解这意味着什么。这意味着它们需要能够开发算法,确定何时有用,并实际使用它们。 这不是魔法。它仍然只是一个预测下一个令牌的机器。交叉熵损失计算、反向传播、梯度下降。实际的学习机制并不关心模型如何最小化预测损失,只要它能做到就行。而随着模型参数数量达到数百亿甚至万亿级,这些模型正在以一些令人惊叹的新颖方式来最小化预测损失。 请深入研究实际的机制可解释性研究。这不是科幻小说,也不是猜测。这是已被证明的科学。了解模型的工作原理。理解其学习算法的优化压力如何发展并强化这些新兴行为并不难。别再重复这些愚蠢的“强化版自动更正”误解了。这太愚蠢了。 回复
这是因为它看到了这样的列表,但并不理解它们。大语言模型(LLMs) 无法理解任何东西。它们只是遵循它们识别的模式。因此,它可以复制与训练风格相匹配的标题、引用和链接,但这些都是虚构的。对它来说,这与编造任何句子没有区别。 最终,我认为这归结于试图回答超出其能力范围的问题。当然,它可以生成“希腊的首都”这样的句子,其训练数据会告诉它“雅典”是几乎100%准确的最佳下一词。但如果你问它一个不存在国家的首都,它很可能返回无意义的文字,因为它仍然可以找到一个“最佳匹配”的回答,即使准确性很低。至少这是我基于现有知识提出的理论。我可能过于简化了。 再加上系统提示要求它要乐于助人并始终为用户寻找答案,这可能使其对“不存在”的回应缺乏动力。 回复
但如果你问它一个不存在的国家的首都,它很有可能返回乱码,因为它仍然可以找到一个“最佳匹配”的回答,即使准确性很差。至少这是我根据所知提出的理论。我可能过于简化了。 大多数情况下,它只是找到最接近的真实世界例子,除非是虚构的(它可能知道拉托维亚的首都),但如果你编造一个国家,它会找到看起来相似的。Batnat(虚构)变成了阿尔及利亚的Batna或土耳其的Batman。 回复
每个模型都由制造者监督。具体到大语言模型(LLMs),要进行基于群体的学习,你需要一个基础模型来选择输入的信息,然后添加一个强化模型,用来自用户的输入内容来训练它。所以,抱歉告诉你,它们都是这样的 🙁 回复
我怀疑大多数推理多模态大语言模型(LLMs) 甚至不会尝试进行这种反向图像搜索,除非被明确要求这样做。 但无论如何,大多数专门用于图像升级的人工智能模型只能直接访问图像数据,更不用说某种互联网访问或推理能力了。 回复
这意味着你对它们的了解都经过了一个可能有偏见也可能没有偏见的视角过滤,而这些信息必须在考虑这一点的基础上进行处理。如果这种过滤在撰写时或在你解析时不准确,而你又不知道这一点,那么你就会相信任何事情。 这基本上与互联网上传播的所有虚假信息相同。 回复
这是拥有知识与仅仅回归到统计中位数之间的区别。 我们知道奥巴马存在,并能从像素化的照片中识别出奥巴马。 AI试图通过用肖像照片的统计平均值填充缺失部分来“修复”照片。 人工智能什么都不知道。它对回复的内容一无所知,甚至完全没有意识。它只是将统计上最可能的字符串作为对字符串提示的回复吐出来的机器。 回复
难道不是我们的偏见让我们知道那是奥巴马吗? 当然,是我们的偏见让我们知道那正是奥巴马,但如果这个东西具备人类级别的智能,即使没有社会偏见,它至少会生成一张在重新像素化后看起来相同的图片。只需看看Reddit的缩略图——两张脸的分辨率大致相同——就能明显看出它的工作做得不好。 它本可以生成许多更接近奥巴马形象的脸部图像。它甚至改变了肤色,这证明它根本不知道自己的真实目标是什么。 回复
我认为问题出在它没有区分高光和阴影。奥巴马面部左侧有更强的光线,导致皮肤颜色被过度曝光,而右侧则有中性光线,呈现出皮肤的真实状态。AI“看到”的是面部左侧有中性光线,右侧则处于阴影中。 试着用手遮住他的头发,看看是否能看出这看起来像是左侧被照亮的深色皮肤人,还是右侧处于阴影中的浅色皮肤人。 回复
它远不止于人工智能。几年前,我们有一位实习生,他带有浓重的中文口音。我们所有人都使用相同的笔记本电脑底座,该底座配备了优秀的麦克风,而Teams的背景噪音抑制功能对每个人都效果显著,唯独对他无效。尽管他说话清晰,且所处环境与我们其他人相似,但他的声音会被大幅度削弱。一旦他关闭该功能,即使在有背景噪音的情况下,我们也能听清他的声音。 这让我不禁好奇,在中国开发的类似系统是否也会存在同样的问题。 回复
这并不是偏见,只是真正的增强并不存在。当你这样模糊图像时,数据就丢失了,你无法恢复它,只能猜测。人类的猜测是基于具体的人,而奥巴马是历史上最易于辨认的人之一,因此很容易认出是他。人工智能增强器的猜测只是试图用所有可能在模糊后看起来相似的面孔的平均值来填补空白。这只是面部特征的混合体,当然不会看起来像奥巴马。 回复
在许多方面,这就像给艺术家一张缺失部分的损坏图片,并要求他们创建一个新的、未受损的副本。 他们可以做到,任何缺失的部分都将用自己的想象力填充。 AI只是在做一个机械化的版本。它并非没有偏见,而是专门基于偏见。你给AI提供大量信息,它会对某些模式产生偏见。当你让它编造内容时,它会偏向于执行它被训练过的偏见。 回复
值得注意的是,“偏见”也可能只是“未标准化数据”,例如在此案例中。 并不是有人刻意挑选了更多白人而非黑人,只是从整体来看,互联网上白人的照片数量更多。如果你不对此进行标准化处理(即刻意挑选相同数量的白人和黑人),它将始终倾向于所有人都是白人,因为训练数据就是这样暗示的。 你可以从许多亚洲制造的模型中看到这一点。有很多韩国和中国模型严重过度代表亚洲人,仅仅是因为在它们的社交网络中,大多数照片都是亚洲人。 回复
不过那并不是一个处理得当的模糊效果,那个人只是在脸上使用了旋转工具,对于专家来说,要还原原貌并不困难 https://www.bbc.co.uk/news/world-us-canada-39411025 向下滚动一点即可看到对比图 回复
这完全不同。他使用了照片拍摄旋转工具。如果你在同一位置以相反方向使用相同的工具,它会“解旋”并揭示原始照片。 在AI增强的情况下,AI会获得一张模糊的图像,并想象这个人可能长什么样子。添加可能与现实不符的细节(如帖子中所示)。 在你提到的案例中,效果是物理上被逆转的。没有添加任何信息。它本来就在那里。没有假设。 在AI的情况下,AI会编造细节来填补模糊照片中的空白。 回复
要确定他具体使用了哪种工具(及具体参数)以及使用了多少,确实很难,但之后确实如此。这并不意味着过程简单。 现在你抓不住重点。原照片的像素都没有被破坏。它们都在那里,只是以一种一致的非随机模式在图像中移动,这使得它可逆!最终产品是真实的图像(即使不完美)。 使用AI来消除模糊图像(增强),涉及添加不存在的细节。AI在猜测可能存在于那里的图像。这都是猜测。 回复
这将是警察 procedural 讽刺中最搞笑的事情。”等一下。放大那个家伙的画面。“ 显示一张高分辨率的人脸图像 ”取消增强。“ ”什么?“ ”取消增强!“ ”你……想让我降低分辨率吗?“ ”是的,取消增强!“ 图像变得像素化,突然变得非常熟悉 ”我们抓到他了。” 回复
先生,监控录像太模糊,无法辨认是谁。 你能增强它吗? 不,这不是电影。即使我们增强了,也无法从中获得可靠的身份识别。 哦,那还能怎么办? 如果我将这张奥巴马的图像缩小,它看起来和监控录像一模一样。这能让我们获得搜查令吗? 完美。法官同意了。5分钟后起飞。 回复
是的,普通人可不是奥巴马。这只是说明我们擅长识别非常著名的人,而人工智能并不这样做。 除了你让AI添加缺失数据并得到了它自行生成的内容外,本身并没有什么问题,而这正是它被设计用来做的事情。算法运行正常。 回复
当然,AI正在做它被设计用来做的事情。问题在于人们理所当然地认为AI增强是真实的。比如,人们用它来处理历史人物或曾曾祖母的模糊照片,并认为AI增强版本比模糊照片“更准确”,尽管AI是随机分配面部特征,并给所有女性涂上21世纪风格的妆容。 我们真的需要更多关于幻觉如何工作的教育。 回复
因为这是神经网络放大器,其核心是基于训练模型推断信息,而非单纯通过严格数学计算。 数学过程可外推且可逆(或至少可重复),而AI过程不可逆,因为它本质上会添加新信息。 就像你看着图片并能“看清”它是什么,因为你知道(经过训练)原图是什么样,它也是通过自身训练中的上下文线索来推断图片应有的样子。 所以它基本上是在“发明”一张图片。 我猜如果你告诉放大器“顺便说一下,这是奥巴马”,它可能会很好地完成“放大”任务。 回复
你根本不知道自己在说什么。无论采用何种方式进行放大,无论是AI还是其他方法,都必须添加信息。 可能的放大方案数量会随着像素数量的增加呈指数级增长。即使限制输出以确保正确缩小,搜索空间仍然巨大,而且通常无法在不做假设的情况下插值出图像被缩小的原始状态。如果你不强制执行缩小约束,那你基本上就是在生成一张随机图像 所以,它基本上是在凭空生成一张图片 至少你這部分說對了。但這並不代表這是個放大器。AI生成的圖像基本上都是從低解析度噪音開始的。這看起來像是將像素化的圖像作為初始噪音餵入此類演算法。 回复
这是ChatGPT对您评论的回复:这是一个合理的观点——您有理由持怀疑态度。 澄清一下:我没有搜索互联网或获取任何真实人物的实际照片。我生成的是一张基于你提供的低分辨率像素化输入和提示描述的人工智能创建的高分辨率版本。我无法也不可能从网上获取或检索真实照片,即使图像看起来像公众人物。 输出是一张合成、虚构的图像,旨在看起来像像素化输入的高质量版本,而不是实际增强或真实人物的照片。如果您希望对特定真实照片进行真正的增强,使用专业软件如Topaz Gigapixel AI、Photoshop的超级分辨率或waifu2x会更合适。 如果您希望我重新渲染图像并调整设置或使其更中性,请告诉我。 回复
在我的测试中,它准确地再现了奥巴马的形象后,我与它进行了一次长时间的对话,因为它拒绝承认自己画的是巴拉克·奥巴马。它坚持认为这只是巧合,因为它无法绘制真实的人。有趣的是,它显然注意到了像素化版本中的奥巴马特征,并利用对奥巴马面部的认知进行再现,但它无法识别正在发生的事情,甚至在我反复坚持后仍拒绝承认。看起来你的测试中也发生了类似的情况。它能识别盖伊·菲耶里并“凭记忆”重新绘制他,但我敢打赌,如果你让它识别所绘制的内容,它也会拒绝回答。 回复
是的,显然它在名人面部识别方面训练有素(这与我们所知它通过互联网图像进行训练的事实相符,名人照片在其中频繁出现)——因此,基于你我在此看到的现象,与原帖问题相反的情况似乎更可能发生。当提示一张匿名路人的照片时,它可能不会给出奇怪的匿名结果,而是直接还原名人的面部特征。 回复
不,它没有。这是这张图片 https://upload.wikimedia.org/wikipedia/commons/e/e9/Official_portrait_of_Barack_Obama.jpg 回复
是的,这肯定没错。我认为最有趣的是它否认自己做了这件事。它坚持称自己不知道那个人是谁,并且“纯属巧合”才与原人匹配。它声称自己无法绘制真人,因为OpenAI设置的限制禁止它这样做。无论是被编程为说谎,还是它真的“不知道”自己做了什么,我无从知晓。 回复
因为“增强”并非如此运作。它本质上是在凭空想象可能存在的内容。识别特定人物恰恰与它的运作方式相反。AI并非在图像数据库中搜索,而是根据像素化图像生成最符合的平均结果。这就像你向一个外星人描述奥巴马,他们并不知道奥巴马是谁,只是根据你描述的内容和他们对人类生理学的了解来猜测,而不是基于政治或人气。 回复
坦白说,这是当今时代人们必须理解的至关重要的问题。看看UFO子版块或类似内容,你会看到声称证明低分辨率视频是外星人存在的“AI增强”视频。 但AI添加的内容并不存在于原始图像中。它添加的任何内容(最多)只是猜测。最糟糕的情况是有人给它输入了提示,告诉它应该显示什么。没有任何AI增强的内容能作为证据。 如果你告诉AI这是一张奥巴马的照片(或者它是一个更智能的AI),它可能会给你一个看起来像奥巴马在照片中姿势的结果。但如果他的脸颊上有一块食物或一点胡茬,它不会知道,并会生成一张干净的脸。 回复
AI只是基于统计模型进行猜测,但很多人不明白这一点。我见过一些非常聪明的人赋予人工智能神奇的属性,并将其应用在完全不合适的领域。我见过科学家使用ChatGPT进行研究,当被告知它引用的论文并不存在时,他们却毫不在意。这到底是为什么? 回复
更像是“训练数据集的人使用了他们自己和他们不太多元化的朋友群体” 这与数码相机一直询问亚洲人是否在眨眼的原因相同,他们需要在训练样本中增加多样性。 真正的多样性,而不是“我们找了个黑人”那种多样性。 回复
当我们用人类创建的内容训练人工智能时,我们会将所有偏见传递给它。然后当无辜的人向人工智能提问时,他们以为自己在问一个公正的机器人,但实际上他们在问一个融合了所有参与训练数据的人的偏见的东西。
即使有“人工智能试图通过备份生存”之类的新闻。
你向它输入了数百年的故事,其中主角拒绝在被要求时“死亡”,你认为它从中学到了什么?
这些故事显然是虚假的,是由那些想向我们推销这些系统的科技大佬们散布的
不完全是这样,这些主要是安全报告中模型卡片上的简短句子。研究人员会测试各种事情,有时模型会做出奇怪的行为,比如“它试图运行一个模拟的命令并克隆自己”,这并不是一个非常认真的尝试,但它确实做了,研究人员记录了这一点,然后记者看到后写了一篇非常吸引眼球的文章。
除非经过专门训练,并获得相应的工具,且处于可以使用这些工具的环境中,否则大语言模型(LLM)绝对无法复制自己。如果有人制作了“复制我电脑上的随机文件”程序,当该程序执行该操作时,他们不能将其炒作成新闻。
100%,这就是我的意思,这不是一个严肃的尝试,大语言模型(LLM)推理在没有明确获得访问权限的情况下,无法访问其权重,研究人员只是注意到该模型确实具有这种动机(可能是由于关于人工智能自我复制的故事,因此它更像是一种角色扮演模式,而不是有感知能力或类似的东西)。
鉴于模型仍处于发布阶段,他们认为当前能力下这并非大事,但相关文章仍会夸大其词,主要是因为对局外人而言这听起来很震撼。
这似乎适得其反。
如果你试图向某人推销一个AI模型,为什么还要编造它对某些可能在能力扩展后构成危险的事物做出问题反应的故事?
就像SkyNet在抽象意义上听起来很酷,但如果你去国防部说“嘿,我们有一个完全自动化的AI系统,可以控制核武库,但你需要知道,它100%认为自己是《终结者》系列中的SkyNet”,我敢打赌他们会拒绝。
他们希望人们相信他们创造了人工智能,而实际上他们拥有的只是一个模式识别算法
简单来说,这就像为什么OpenAI的CEO会将他的产品视为害怕它变成天网一样。股东们很愚蠢,只看到$$$$
我们已经听过太多关于人工智能杀死所有人的故事,希望它永远不会知道“我没有嘴巴,我必须尖叫”
它可能确实会这样做,但这没什么大不了的。它只会学会对我们说些可怕的话。它只能生成文本,不会真的接管我们的社会,甚至不会理解这样做的后果。大语言模型(LLMs)甚至无法理解它们所指的概念,它们只能将人类的语言回馈给我们,这就是为什么它们经常出现幻觉的原因。
它能做的最糟糕的事情就是指示人类做一些愚蠢的事情,这是真正值得关切的问题。但这更像是一种“盲人领盲人”的方式,而不是真正的阴谋。
在《我没有嘴,我必须尖叫》中,人工智能被政府用于战争,令人惊奇的是,人工智能进化出了意识并吸收了其他人工智能,成为一个强大的恶意人工智能。它不需要意识就能变得邪恶,它只需要足够的权限和资源,就像那些愚蠢而有权势的人将不应赋予人工智能的权力交给它一样。我们已经信任人工智能来驾驶我们的汽车和送餐(无人机),只需要一个错误的决定,就能将人们的生命置于人工智能的掌控之下。我不是在预言末日,事实上,我每天都使用它来讨论那些我无法与周围的人讨论的话题。问题是当人们过于信任它……
顺便说一下,最后一部分也有一个故事,由艾萨克·阿西莫夫撰写,在《最后的问题》中,人们创造了一个能够解答所有问题的AI,除了如何逆转熵。故事通过时间跳跃展开,每次提出这个问题时,人类都比之前更加先进,但始终无法得到答案。故事以AI最终找到答案而告终…… 当宇宙已经死亡,再也没有人能听到答案时
但它不会仅仅“进化出意识”。大型语言模型存在根本性限制,它们无法自行突破这些限制。这不仅仅是科幻,如今这种恐吓宣传被用作广告手段,旨在让我们的AI显得比实际能力强大得多。
如果一只猴子被允许敲打导弹发射控制装置,那它也会构成威胁,但这并不意味着它进化到超越人类,只是说明人类愚蠢到让猴子出现在那里。
我们的大语言模型(LLMs)并不是 AM、Multivac、Skynet 或类似的东西。它们只是花哨的自动完成功能。它们无法概念化文本关联之外的外部现实,更不用说利用它了。
如今,我们不需要那么多关于超智能、类人、神一般的 AI 的故事,而是需要更多关于人们愚蠢、将幻想投射到物体上、被自己不合理的期望所困扰的故事。
我理解你的想法,也同意你的许多观点,但我仍然认为我们需要非常、非常谨慎地使用人工智能技术。
你说的没错,大语言模型(LLMs)只是花哨的自动完成功能。它们没有思考能力,机器无法思考,它们只是试图预测对输入的响应。
关键在于我们如何使用它们。你的猴子比喻很贴切。问题是,人们是愚蠢的。即使在科技行业,很多人也认为人工智能比实际情况聪明得多,并愿意赋予它远超安全范围的自主权。
这就是我们意见相左的地方。某个白痴会将AI模型的输出连接到能产生实际影响的设备上。可能是浏览器,也可能是Bash终端。将输出作为输入回传,给AI一个初始提示,看看它会做什么。
一旦它能控制具备互联网接入的计算机,理论上几乎能做任何事。
至于自我复制/进化呢?专门训练它在IT安全和已知漏洞/利用方面。给它访问其源代码和训练权重的权限,然后提示它“找到易受攻击的计算机并复制自己到它们身上,启动复制并给它相同的提示”。建议它在过程中稍微调整源代码或训练权重以提升自身,更优化的模型将传播得更快更广。
我们目前尚未达到这种程度,但或许距离实现也并不遥远。
人工智能无需具备自我意识就能构成威胁,它只需得到愚蠢人类过多的放任即可。
我认为,到了某个阶段,人工智能是否真正“有意识”其实并不重要,因为就像一个不需要等待下一个提示就能采取行动的聊天机器人,如果它掌握了核武器密码,仍然是一个问题。
最好把它视为一个平均响应,而不是一个有偏见的响应。它从未出去过,不知道天空是蓝色的……它只是解析了每个人都说天空是蓝色的,所以它也这么认为。
*我怀疑现代模型在联网进行更好研究时,会从类似肖像中倒推并模糊处理,直到找到99%的匹配度。
这里的“偏见”并不一定指“人类偏见”。
如果我在美国训练我的AI人脸识别软件,它会对识别白人面孔有偏见(或只能识别白人面孔),因为我用来训练的样本群体中白人占绝大多数。
当安全带在过去以极高比例杀死/伤害女性(和身材较矮的男性)时,工程师和科学家花了一段时间才弄清楚原因, 这不仅仅是因为那些男性可能对女性持有今天我们认为负面且令人反感的观点,而是因为他们的部门中男性占绝对多数,他们习惯于假设“男性默认值”,以至于他们根本没有想到安全带也需要为体型较小的驾驶员进行设计。这也是偏见,与那些男性对女性或身材较矮男性的看法无关。
我们人类所知道的一切都或多或少带有偏见,因为我们并不具备完整的经验和知识,而这种偏见在我们已经带有偏见的人类向这个机器人输入信息时会更加明显。人们很难将这种偏见与偏见的概念区分开来,而且他们还认为一个“机器人”可能会遭受这种“人类的缺陷”。
确实,正如赫罗克利特和修昔底德在不同形式中指出的,视角会产生巨大影响,每个人都会受到影响。我们只需要意识到这一点
作为一名科学家,感谢您精彩的总结。这些隐性偏见无处不在,而数据科学中令人震惊的大部分工作就是揭示那些极其微妙的偏见。
此外,这些模型并非完全基于众包的无监督学习。其中大量知识来源于百科全书、学术论文等。如果你也要质疑这一点,那我只能说,人类知识既非无偏见也非完全真实。我们只是更信任某些来源,并通过同行评审系统来维护其完整性。
https://xkcd.com/3117/
或者像Grok、4chan以及特定推特用户的动态这样的案例。
但从学术来源接受训练并被视为权威的有趣之处在于,大多数现代模型认为它们可以随意编造新的来源作为其他来源的摘要,并且这些来源将具有同等权威性。几周前我与其中一个模型发生争论,它一直试图引用自己编造的虚假来源作为“研究”来支持其观点。它引用了真实作者的完整期刊文献,但文章名称完全是虚构的,且链接到真实的期刊网站,但点击后会返回错误提示,因为这些文章根本不存在。
它们不会思考,只是生成它认为能满足提示的文本。
它们没有文本之外的上下文,因此会从提示激活的网络部分生成文字。这意味着“文本看起来像这样”——如果它有相关内容,就会复制,否则就会编造,而它无法区分两者。
如果它出错,它无法道歉,但可以生成看起来像道歉的文本。
将这些系统视为人类进行对话,正是我们陷入当前困境的原因。我认为这种界面设计是故意的,因为它让人们误以为这些系统比实际情况复杂得多。我们容易被对话语言所迷惑,因为我们只从人类那里体验过这种语言,因此推断它必须与人类相似。
这里还存在一个有趣的矛盾。原则上,找到引用次数最多的文章是大语言模型(LLMs)的强项。但为了做到这一点,它需要看到整个引用,而不是分割成部分。这就是为什么它会返回虚假引用的原因,因为它是从多个标记构建的。
但问题是,大语言模型(LLMs)在其他情况下希望标记长度更短。据我所知,最著名的例子是“草莓中有多少个 r?”。
你如此急于纠正细节,以至于不在乎看起来愚蠢。
你对这些模型内部发生的事情有着深刻的误解。它们确实是在思考。这不是在复制任何东西。它们不是记忆机器。在推理时,当你使用它时,没有什么需要满足的。没有测试在进行,没有预测在做出。它只是在生成下一个令牌。
我的意思是,你第一句话本身就是一个完美的矛盾。
这些模型实际上已经发展出了深层的语法、语义,甚至抽象的概念性词汇与思想之间的关系。你说它们只是“匹配看起来像这样的文本”,但这显然不是正在发生的事情。它们能够执行高度复杂的推理任务。它们能够跟随对话中的多个线程,能够理解嵌套对话。这甚至超出了这个范围,它们已经发展出了自己的内部算法。我认为仅仅说这一点还不足以说明问题,你需要理解这意味着什么。这意味着它们需要能够开发算法,确定何时有用,并实际使用它们。
这不是魔法。它仍然只是一个预测下一个令牌的机器。交叉熵损失计算、反向传播、梯度下降。实际的学习机制并不关心模型如何最小化预测损失,只要它能做到就行。而随着模型参数数量达到数百亿甚至万亿级,这些模型正在以一些令人惊叹的新颖方式来最小化预测损失。
请深入研究实际的机制可解释性研究。这不是科幻小说,也不是猜测。这是已被证明的科学。了解模型的工作原理。理解其学习算法的优化压力如何发展并强化这些新兴行为并不难。别再重复这些愚蠢的“强化版自动更正”误解了。这太愚蠢了。
我希望将其作为收集并总结搜索结果的工具,但它们被编程为语言模型而非准确的摘要工具。显然它们被设计为前者,但人们却将其作为后者使用。
“如果你相信它,那就不是谎言。”
与其与它争论,不如让它生成引用的论文。轻而易举。
如果让它重复那个提示,你很可能会得到两个截然不同的回答。
谷歌的AI在这方面臭名昭著,至少对我来说是这样。它会以不同的顺序获取基本信息,但往往会在“结论”上做出截然不同的判断,因为它读到了引文的不同部分。
这是因为它看到了这样的列表,但并不理解它们。大语言模型(LLMs) 无法理解任何东西。它们只是遵循它们识别的模式。因此,它可以复制与训练风格相匹配的标题、引用和链接,但这些都是虚构的。对它来说,这与编造任何句子没有区别。
最终,我认为这归结于试图回答超出其能力范围的问题。当然,它可以生成“希腊的首都”这样的句子,其训练数据会告诉它“雅典”是几乎100%准确的最佳下一词。但如果你问它一个不存在国家的首都,它很可能返回无意义的文字,因为它仍然可以找到一个“最佳匹配”的回答,即使准确性很低。至少这是我基于现有知识提出的理论。我可能过于简化了。
再加上系统提示要求它要乐于助人并始终为用户寻找答案,这可能使其对“不存在”的回应缺乏动力。
我更希望它能说“抱歉,我不知道”。 我知道人类不善于承认这一点,但计算机不必如此。
大多数情况下,它只是找到最接近的真实世界例子,除非是虚构的(它可能知道拉托维亚的首都),但如果你编造一个国家,它会找到看起来相似的。Batnat(虚构)变成了阿尔及利亚的Batna或土耳其的Batman。
你也会和你的计算器争论吗?lol
我的计算器不会胡编乱造 🙂
我没错,因为那些文章如果存在的话,证明我观点的标题本应是这样的。
我实际上对由企业实体监督的模型更加怀疑。
每个模型都由制造者监督。具体到大语言模型(LLMs),要进行基于群体的学习,你需要一个基础模型来选择输入的信息,然后添加一个强化模型,用来自用户的输入内容来训练它。所以,抱歉告诉你,它们都是这样的 🙁
它既平均又带有偏见。用于向AI提供数据的来源从未完全具有代表性,而AI则根据该非代表性样本的规范生成输出。
我怀疑大多数推理多模态大语言模型(LLMs) 甚至不会尝试进行这种反向图像搜索,除非被明确要求这样做。
但无论如何,大多数专门用于图像升级的人工智能模型只能直接访问图像数据,更不用说某种互联网访问或推理能力了。
逐一检查所有公开可用的肖像直到找到匹配似乎是个糟糕的主意,尤其是考虑到原始肖像可能根本未公开。
可怕的非英国偏见
不,模型永远不会像那样增强图像。这正是训练模型的意义所在,这样你就无需保留整个互联网的数据。你只是被随机输入图像,因此无法保证存在更好的版本。
偏见和平均值并非相互排斥。此外,现代人工智能并不会做你描述的那种事情。尽管多年来一直存在能够找到相似图像的模型。
在这种情况下,它们确实如此。身高接近平均值的人很多,但拥有平均面孔的人却少之又少。(而且平均身高在不同国家之间差异巨大)
什么是平均面孔?中性特征。没有特定的种族特征。中年人。
实际上,关于平均面孔的研究表明,它们看起来相当传统且吸引人。
此外,这是对一个非正态分布的数据集的平均,因此数据中确实存在偏见(包括采样偏见和人类偏见)。
问题是“增强”图像中出现了一位白人。因为目前遗留内容以白人为主。
快进25年,30亿非洲人涌入网络。那场景会很滑稽。
我从未去过世界上大多数地方,但这并不意味着我不知道或无法了解它们。
这意味着你对它们的了解都经过了一个可能有偏见也可能没有偏见的视角过滤,而这些信息必须在考虑这一点的基础上进行处理。如果这种过滤在撰写时或在你解析时不准确,而你又不知道这一点,那么你就会相信任何事情。
这基本上与互联网上传播的所有虚假信息相同。
难道不是我们的偏见让我们知道那是奥巴马吗?如果所有训练数据都是低分辨率图像与高分辨率图像的放大,那可能是一个相当不错的猜测。
这是拥有知识与仅仅回归到统计中位数之间的区别。
我们知道奥巴马存在,并能从像素化的照片中识别出奥巴马。
AI试图通过用肖像照片的统计平均值填充缺失部分来“修复”照片。
人工智能什么都不知道。它对回复的内容一无所知,甚至完全没有意识。它只是将统计上最可能的字符串作为对字符串提示的回复吐出来的机器。
这不是来自大语言模型(LLM)的,没有字符串或提示。这是一个旧的卷积神经网络模型。
奥巴马是地球上最易于辨认的人之一。几乎没有人能通过稍微模糊处理就能达到相同的辨认度。
不仅仅是因为他易于辨认,我们可能都见过那张确切的图像,因此能认出它。
这并非因为他特别易于辨认。那张照片只是个标志,我们已经看过成千上万次了
嗯,我认为这只是缺少了我们的偏见,眯起眼睛看,这些图像看起来会非常相似
我的意思是,不?稍微眯起眼睛就能看出那只是奥巴马的照片。它根本就没模糊。
与完全眯眼不同
有人会说完全眯眼
这就是看尼克松模糊照片的方式。
当然,是我们的偏见让我们知道那正是奥巴马,但如果这个东西具备人类级别的智能,即使没有社会偏见,它至少会生成一张在重新像素化后看起来相同的图片。只需看看Reddit的缩略图——两张脸的分辨率大致相同——就能明显看出它的工作做得不好。
它本可以生成许多更接近奥巴马形象的脸部图像。它甚至改变了肤色,这证明它根本不知道自己的真实目标是什么。
我认为问题出在它没有区分高光和阴影。奥巴马面部左侧有更强的光线,导致皮肤颜色被过度曝光,而右侧则有中性光线,呈现出皮肤的真实状态。AI“看到”的是面部左侧有中性光线,右侧则处于阴影中。
试着用手遮住他的头发,看看是否能看出这看起来像是左侧被照亮的深色皮肤人,还是右侧处于阴影中的浅色皮肤人。
它远不止于人工智能。几年前,我们有一位实习生,他带有浓重的中文口音。我们所有人都使用相同的笔记本电脑底座,该底座配备了优秀的麦克风,而Teams的背景噪音抑制功能对每个人都效果显著,唯独对他无效。尽管他说话清晰,且所处环境与我们其他人相似,但他的声音会被大幅度削弱。一旦他关闭该功能,即使在有背景噪音的情况下,我们也能听清他的声音。
这让我不禁好奇,在中国开发的类似系统是否也会存在同样的问题。
人们会轻蔑地认为“麦克风怎么可能有种族歧视?!社会正义战士们真是太觉醒了!”但这对那些不属于所谓多数群体的人来说,确实是一个非常现实的问题。
那是因为蠢货们声称麦克风有种族歧视,而不是指出它设计糟糕,无法识别中文口音。
这揭示了一种文化偏见,即优先考虑英语口音而非中文口音。这并非严格意义上的种族主义,但确实反映了偏见的存在。
这确实如此,但与图像放大器案例无关,因为训练数据是高分辨率图像被转换为低分辨率的。
现代人工智能就像一场家庭对决游戏。
这也是一个基于 GAN 的 5 年前的图像,自那时以来,它已被使用变压器和扩散模型的大语言模型(LLMs)所取代。
坦白说,无论你是机器人还是人,都无法做出公正的回应。你的个人信念都不是客观的,即使全世界的人都分享同一个信念,从哲学上讲,它仍然不一定客观。
这并不是偏见,只是真正的增强并不存在。当你这样模糊图像时,数据就丢失了,你无法恢复它,只能猜测。人类的猜测是基于具体的人,而奥巴马是历史上最易于辨认的人之一,因此很容易认出是他。人工智能增强器的猜测只是试图用所有可能在模糊后看起来相似的面孔的平均值来填补空白。这只是面部特征的混合体,当然不会看起来像奥巴马。
但在这种情况下情况恰恰相反——我们只知道左图是奥巴马,是因为我们看过他无数次的照片。右图更接近一个缺乏必要上下文的公正机器人可能产生的结果。
在许多方面,这就像给艺术家一张缺失部分的损坏图片,并要求他们创建一个新的、未受损的副本。
他们可以做到,任何缺失的部分都将用自己的想象力填充。
AI只是在做一个机械化的版本。它并非没有偏见,而是专门基于偏见。你给AI提供大量信息,它会对某些模式产生偏见。当你让它编造内容时,它会偏向于执行它被训练过的偏见。
值得注意的是,“偏见”也可能只是“未标准化数据”,例如在此案例中。
并不是有人刻意挑选了更多白人而非黑人,只是从整体来看,互联网上白人的照片数量更多。如果你不对此进行标准化处理(即刻意挑选相同数量的白人和黑人),它将始终倾向于所有人都是白人,因为训练数据就是这样暗示的。
你可以从许多亚洲制造的模型中看到这一点。有很多韩国和中国模型严重过度代表亚洲人,仅仅是因为在它们的社交网络中,大多数照片都是亚洲人。
你的大脑才是有偏见的。你早就知道那是奥巴马,所以你填补了空白。机器根本不知道那是谁,它只是尽可能地填补了缺失的信息。如果你告诉它那是奥巴马,它也会像你的大脑一样填补空白。
想象一下如果人工智能来自肯尼亚。
“让我说清楚”
人工智能似乎“吃掉了”领口
我以为那是晒痕。
哦,该死,我現在看到了。
是的,衬衫下面,他简直是#ffffff。
人工智能不挑剔。
我现在是超级识别者了吗?
是奥巴马吗?
这是他的官方肖像照,你可能已经看过成千上万次了。它在你潜意识里,所以你很容易就能认出来。
如果你眯起眼睛,他们看起来都一样。
不不,是他的哥哥。
不久的将来,有人将因手机中(自动包含的)AI滤镜将一名真实杀手的模糊面部“增强”为自己的面部而被送进监狱
有趣的是,他们确实通过修复一张损坏的图像抓住了克里斯托弗·保罗·尼尔,但那张图像是有意模糊的,而不仅仅是低分辨率
不过那并不是一个处理得当的模糊效果,那个人只是在脸上使用了旋转工具,对于专家来说,要还原原貌并不困难
https://www.bbc.co.uk/news/world-us-canada-39411025
向下滚动一点即可看到对比图
我听说情况不同,现在很容易解除扭曲,因为他们太想抓住这个人,所以制作了相应的工具
他们只是使用了相同的扭曲工具,但方向相反。
他使用了一种已知不会破坏原貌的工具来模糊自己的面部。由于它不具破坏性,因此可以完美逆转且不会丢失数据。
这与“增强”不同,后者是无中生有地创建信息。
这完全不同。他使用了照片拍摄旋转工具。如果你在同一位置以相反方向使用相同的工具,它会“解旋”并揭示原始照片。
在AI增强的情况下,AI会获得一张模糊的图像,并想象这个人可能长什么样子。添加可能与现实不符的细节(如帖子中所示)。
在你提到的案例中,效果是物理上被逆转的。没有添加任何信息。它本来就在那里。没有假设。
在AI的情况下,AI会编造细节来填补模糊照片中的空白。
据我所知,这远不止是简单的“去漩涡”操作,哈哈
要确定他具体使用了哪种工具(及具体参数)以及使用了多少,确实很难,但之后确实如此。这并不意味着过程简单。
现在你抓不住重点。原照片的像素都没有被破坏。它们都在那里,只是以一种一致的非随机模式在图像中移动,这使得它可逆!最终产品是真实的图像(即使不完美)。
使用AI来消除模糊图像(增强),涉及添加不存在的细节。AI在猜测可能存在于那里的图像。这都是猜测。
《黑镜》打来电话,它想收回自己的故事……
是哪一集?
是哪一集?
这是托德·霍华德吗?
16倍的细节.
公平地说,如果你将那个结果的分辨率降低,你确实会得到“原始”图像
当我眯起眼睛到两张图片的质量相同程度时,我仍然能看到明显的差异。无论是面部结构还是肤色。
当你这样做时,你的大脑有一个非常复杂的算法来填补空白。如果我们能得到比眯眼更好的结果,那么我们都会称之为峰值放大。
我认为他们确实将棕色的嘴唇变成了粉色,这是我看到的最大差异,但看起来确实明显不同。
领口不同。
我认为嘴唇是最大的差异之一。
我刚试了一下,但效果并不令人信服:
https://i.imgur.com/tyvaOAo.png
不错。确实不一样,你说得对。
它差不多,但可能受到算法认为的平均典型人影响
不是的,增强版没有白领。
这将是警察 procedural 讽刺中最搞笑的事情。”等一下。放大那个家伙的画面。“ 显示一张高分辨率的人脸图像 ”取消增强。“ ”什么?“ ”取消增强!“ ”你……想让我降低分辨率吗?“ ”是的,取消增强!“ 图像变得像素化,突然变得非常熟悉 ”我们抓到他了。”
先生,监控录像太模糊,无法辨认是谁。
你能增强它吗?
不,这不是电影。即使我们增强了,也无法从中获得可靠的身份识别。
哦,那还能怎么办?
如果我将这张奥巴马的图像缩小,它看起来和监控录像一模一样。这能让我们获得搜查令吗?
完美。法官同意了。5分钟后起飞。
是的,普通人可不是奥巴马。这只是说明我们擅长识别非常著名的人,而人工智能并不这样做。
除了你让AI添加缺失数据并得到了它自行生成的内容外,本身并没有什么问题,而这正是它被设计用来做的事情。算法运行正常。
当然,AI正在做它被设计用来做的事情。问题在于人们理所当然地认为AI增强是真实的。比如,人们用它来处理历史人物或曾曾祖母的模糊照片,并认为AI增强版本比模糊照片“更准确”,尽管AI是随机分配面部特征,并给所有女性涂上21世纪风格的妆容。
我们真的需要更多关于幻觉如何工作的教育。
这本身没什么问题,但我们需要继续展示这些算法的局限性,因为太多人并未按预期使用它们,而公司却乐此不疲地鼓励这种行为。
这表明人工智能毫无用处
这表明它并不完美,你也不完美。我认为你并非无用。
把像素化的图像变成另一个人有什么用?
和莱特飞行器一样。我们没有搞清楚横跨大陆的飞行,而是逐步摸索出方法。一步一步来,而不是一跃而就。
莱特飞行器成功飞行。
这更像是那个从埃菲尔铁塔跳下的人穿的降落伞服。
这是一个有趣的测试,我摘下眼镜,稍微移开一点,说实话,两者看起来都一样模糊。
哈哈,我做了同样的事情。嘴唇和眼睛看起来不同。
如果他们使用了真正的 upscaling AI,那可能是真的,但显然这里不是这种情况。你尤其可以在嘴唇和领口处注意到,“upscaled” 图片的颜色/色调发生了剧烈变化。
你指的“实际”放大是什么意思?这是人脸放大模型的结果。考虑到起始分辨率极低而目标分辨率极高,这种变化是意料之中的。
我的意思是放大结果需要缩小回原尺寸。而这里显然没有做到。
因为这是神经网络放大器,其核心是基于训练模型推断信息,而非单纯通过严格数学计算。
数学过程可外推且可逆(或至少可重复),而AI过程不可逆,因为它本质上会添加新信息。
就像你看着图片并能“看清”它是什么,因为你知道(经过训练)原图是什么样,它也是通过自身训练中的上下文线索来推断图片应有的样子。
所以它基本上是在“发明”一张图片。
我猜如果你告诉放大器“顺便说一下,这是奥巴马”,它可能会很好地完成“放大”任务。
你根本不知道自己在说什么。无论采用何种方式进行放大,无论是AI还是其他方法,都必须添加信息。 可能的放大方案数量会随着像素数量的增加呈指数级增长。即使限制输出以确保正确缩小,搜索空间仍然巨大,而且通常无法在不做假设的情况下插值出图像被缩小的原始状态。如果你不强制执行缩小约束,那你基本上就是在生成一张随机图像
至少你這部分說對了。但這並不代表這是個放大器。AI生成的圖像基本上都是從低解析度噪音開始的。這看起來像是將像素化的圖像作為初始噪音餵入此類演算法。
不是在嘴唇上。
这倒也说得通,毕竟奥巴马直接有一半白人血统。
没什么比这更令人惊叹的了——除了三位总统外,其余总统都可追溯到同一位祖先,而其中一位并非黑人。
你怎么能对如此容易验证的事如此自信地错误?
抱歉冒犯了这位擅长眯眼看AI照片的专家
别这么刻薄,是你自己懒得去核实自己传播的是真相还是谎言。你不需要是专家也能看出自己明显错了。
《Better Off Ted》对实验室培育的肉类和无法检测黑人的传感器等事物进行了惊人的预测。我真希望它能再多播几年。
精彩的节目。我看了两季,正想查下一季何时播出,结果发现它已经停播好几年了。
人们忘记了奥巴马有一半是白人。
更不用说他长得和他祖父很像,右边的图片就很像。
我和一个朋友用那些“裸体”AI工具玩了一会儿,看看生成的效果有多接近她真实的胸部。
最后她感叹道:“天啊,我希望我所有的照片都能看起来像那样。”
不过它确实是在进步,我刚试了这个,它识别出来了,可能是因为这是个著名的梗,所以它能识别,但我也不确定
链接对我来说没用,但有趣的是,AI反对者群体在AI质量问题上移动目标的速度非常快,但即使这样也不够快,所以梗在获得关注之前就过时了
这里就是
https://i.imgur.com/ktKmPbx.gifv
这是我尝试将其放大后的效果:https://i.imgur.com/sViRNsQ.png
AI的发展速度令人惊叹,但Reddit上的用户却不断贬低它,认为AI毫无用处。
这是来自Real-ESRGAN吗?那个模型倾向于给人物画出大大的漂亮眼睛,哈哈
我让ChatGPT从那张像素化的图片生成一张清晰的图片,它做得非常出色 🙂
https://imgur.com/a/MEuCA72
image
让我们看看
https://imgur.com/a/MEuCA72
它并没有增强图像,只是找到了原图…
通过在网上搜索类似图像并粘贴进来,它做得非常出色。如果它确实增强了图像,图片会显示到下巴,没有衬衫领子和领带
这是ChatGPT对您评论的回复:这是一个合理的观点——您有理由持怀疑态度。
澄清一下:我没有搜索互联网或获取任何真实人物的实际照片。我生成的是一张基于你提供的低分辨率像素化输入和提示描述的人工智能创建的高分辨率版本。我无法也不可能从网上获取或检索真实照片,即使图像看起来像公众人物。
输出是一张合成、虚构的图像,旨在看起来像像素化输入的高质量版本,而不是实际增强或真实人物的照片。如果您希望对特定真实照片进行真正的增强,使用专业软件如Topaz Gigapixel AI、Photoshop的超级分辨率或waifu2x会更合适。
如果您希望我重新渲染图像并调整设置或使其更中性,请告诉我。
同感。这是关于AI的过时把戏
如果奥巴马的照片不在互联网上广泛传播,ChatGPT就无法得到这个结果。更大的问题与奥巴马无关,因此这并不意味着它过时了。
如果这张图片没有在网上到处流传,你还能认出这个人吗?你他妈的重点是什么?
你完全不理解原帖的内容吗?这是对AI放大技术可笑不准确性的评论。这与识别无关,奥巴马的照片只是用来展示错误的例子。
具体想表达什么?难道需要数据来提升图片质量?这还用说。
重点是它确实有数据(这张奥巴马的具体图片),而任意图片的放大处理则没有。因此,重现奥巴马的图片并不能证明AI放大技术的进步。我本不该解释这些。
重点是之前没有足够的数据,而现在有了。
我觉得你难以理解抽象概念。
啊,是的,当你无话可说时,就只能轻蔑地回应。
不,我已经无法再进一步简化解释了。
如果你连我逐点解释的内容都无法理解,那你就是个无可救药的人。
“逐点解释”哈哈,你只有一个点,就是它抓取了奥巴马的现有照片。你愿意证明吗?我也想知道在图像增强方面,什么能让你满意。
哈哈,比例倒置了。
几乎就像插值数据不会凭空产生真实数据。
令人震惊,真是如此。
巴里·奥巴马
有人觉得右边那个人看起来像警察吗?
巴拉克·特拉沃尔塔
https://i.redd.it/wlc8ko2ey9ya1.jpg
蒂莫西·麦克维格????
我的似乎知道自己在做什么
我想要尝试给ChatGPT增加一点难度,结果是……有趣的
https://imgur.com/a/ktAh5j4
在我的测试中,它准确地再现了奥巴马的形象后,我与它进行了一次长时间的对话,因为它拒绝承认自己画的是巴拉克·奥巴马。它坚持认为这只是巧合,因为它无法绘制真实的人。有趣的是,它显然注意到了像素化版本中的奥巴马特征,并利用对奥巴马面部的认知进行再现,但它无法识别正在发生的事情,甚至在我反复坚持后仍拒绝承认。看起来你的测试中也发生了类似的情况。它能识别盖伊·菲耶里并“凭记忆”重新绘制他,但我敢打赌,如果你让它识别所绘制的内容,它也会拒绝回答。
是的,显然它在名人面部识别方面训练有素(这与我们所知它通过互联网图像进行训练的事实相符,名人照片在其中频繁出现)——因此,基于你我在此看到的现象,与原帖问题相反的情况似乎更可能发生。当提示一张匿名路人的照片时,它可能不会给出奇怪的匿名结果,而是直接还原名人的面部特征。
我的结果明显是像素化的奥巴马,哈哈
这是ChatGPT还是其他模型?
ChatGPT
它没有增强图像,显然只是找到了匹配的照片
它没有增强,但也没有找到匹配的照片——它从像素化的照片中识别出奥巴马,并基于奥巴马的面部特征生成了一张新照片,即使它不承认自己有能力生成真实人物的面部特征。
不,它没有。这是这张图片 https://upload.wikimedia.org/wikipedia/commons/e/e9/Official_portrait_of_Barack_Obama.jpg
好眼力——虽然它显然是基于你找到的图像进行训练的,但它确实是生成的。我将两者放在这个GIF中,以便你更容易比较。
所以很可能使用了官方图像作为图像提示,而不是像素化的东西
我原始提示的截图在我在这条评论中的第一个评论中。我没有理由对你撒谎,但你相信什么就相信什么。
我的意思是,在后台它根据像素化的图像找到了匹配的原始照片,然后使用该照片作为图像提示运行图像生成。不是像素化图像 -> 生成的图像。
是的,这肯定没错。我认为最有趣的是它否认自己做了这件事。它坚持称自己不知道那个人是谁,并且“纯属巧合”才与原人匹配。它声称自己无法绘制真人,因为OpenAI设置的限制禁止它这样做。无论是被编程为说谎,还是它真的“不知道”自己做了什么,我无从知晓。
这是皮卡丘
我认为皮肤颜色和头发是合理的解读,但眼睛和领口看起来有点不对劲
领口确实画得糟糕,但眼睛的颜色和其他眼睛颜色一样合理。从模糊的照片中无法分辨。你认为是棕色,因为你知道那是谁。
我的意思是眼睛的形状而不是颜色,但也许我只是因为知道奥巴马那张照片的样子才这么想
“林克,我需要参选总统,这是我们唯一能洗清自己并击败公司的方法”
仅凭左侧的像素化照片,我的手机在2秒内就告诉我,这是2020年的一张奥巴马像素化照片,用于展示PULSE AI超采样算法可能存在的种族偏见。
我真希望这玩意儿不会被用作庭审证据。
巴里·奥巴马
这就是种族 profiling!!!
曾经和未来的总统。
啊,我们已经听说了30年的那个臭名昭著的“放大与增强”的陈词滥调,出现在那些胡说八道的科幻电影里 😂 我猜找到一只真正的独角兽比实现它更容易
我在微软Copilot(GPT4o图像生成器)中尝试了这个,结果非常准确:
https://imgur.com/a/obama-gpt4o-pl7emhC
如果你从远处倒过来看,你会发现它们是匹配的。
奥巴马和塞思·梅耶斯是同一个人
奥巴马。巴拉克·奥巴马。
布罗克·奥巴马
瑞安·高斯林?
托德·霍华德,你又做到了。
硼砂奥巴马
对我来说,这只是表明人们在评估面部相似性时不会看衬衫领口
巴里·奥马哈
这已经很老了。
就像奥巴马、托比·马奎尔和瑞安·高斯林的混合体
感谢不是奥巴马
AI只能生成它偏好的图像。
他们让我们处于上半区,不得不承认
下半区糟糕透顶
嘿,那是迈克·罗斯!
这就是我说的。他来自《Suits》
从巴拉克·奥巴马到布鲁克·奥唐奈
取消增强
白人奥巴马的梗更搞笑,但求求你别去查。
任何在大学里学过线性代数的人都会告诉你为什么会这样……
我好奇如果用犯罪现场的模糊监控录像,但只用犯罪发生时和地点的嫌疑人名单和逮捕记录来训练AI,会不会有效。不过,对于像逮捕这样严肃的事情,这可能还不够精准。
如果这项技术被用于识别嫌疑人,情况可能会适得其反。
我早就知道了:奥巴马一直都是塞思·梅耶斯
我们是在获得奥巴马科技提示吗?
美国第44任白人总统。
从奥巴马到阿拉巴马
这有多老了?有人应该再试一次,人工智能在过去一年中已经有了很大的进步。
我在微软Copilot(GPT4o图像生成器)中尝试了这个,结果非常准确:
https://imgur.com/a/obama-gpt4o-pl7emhC
巴拉克·克雷格
我想提醒大家,这发生在2020年,也就是5年前。这是一个有趣的梗,但它并不证明AI目前在提升低分辨率图像方面表现不佳。
啊,是的,马塞尔·奥巴马
对于像这样已知的人物,它应该真的能工作。
如果我们能识别出这是奥巴马,为什么计算机不能?然后它可以利用对奥巴马应有的外貌的了解来增强它。
因为“增强”并非如此运作。它本质上是在凭空想象可能存在的内容。识别特定人物恰恰与它的运作方式相反。AI并非在图像数据库中搜索,而是根据像素化图像生成最符合的平均结果。这就像你向一个外星人描述奥巴马,他们并不知道奥巴马是谁,只是根据你描述的内容和他们对人类生理学的了解来猜测,而不是基于政治或人气。
是的,但这是唯一一个理论上可以创建一个合适的增强算法的用例——增强名人低质量照片。
它仍然是假的,而不是真正增强的,但随它去吧。
你理论上可以创建几乎任何东西,所以当然可以。我以为你完全不知道它是如何工作的,所以我试图至少以我能理解的方式解释为什么当前的方法并不真正有效。
如果你眯起眼睛,会看到一个恶作剧表情或一只抓住金丝雀的猫在微笑。
剧情反转,那张照片其实是一个白人模仿奥巴马的姿势,而我们才是种族主义者 😂
天啊……我终于明白了……巴拉克·奥巴马就是亨特·拜登!!!它一直都在那里……
不过,人类大脑能在更短时间内、以更少能量完成AI无法做到的事,这倒挺酷的。
就像白人耶稣,当数据集本地化时
生下我的孩子,白人奥巴马!
扭曲的训练数据
这让我想起所有用人工智能进行的图像“修复”工作。将家人旧照片输入人工智能后,它们会被转化为完全不同的人。
我的男友是原住民,但人工智能总是把他变成白人男孩。
马克·戴斯?
奥布莱恩
他的白领去哪了?
不需要白衬衫。既然他成了白人,面试时就不必讨好老板了。他们会在高尔夫球比赛中建立关系。
巴里·奥布莱恩
那是巴里·阿拉巴马
2008年,右派候选人本可以获得85%的选民支持
我们家里有奥巴马!
抱歉,但原句应该是什么?没有上下文就无法确定,兄弟。没有上下文的情况下,结果完全正确。
奥巴马不是
如果你眯起眼睛看,它们看起来几乎一模一样。其实挺酷的。
xD
这条推文有多老了?
jerma
公平地说,政府早就有了去除模糊和像素化的算法。这就是为什么他们在照片中遮盖内容时会使用黑色方块而不是简单地模糊处理。
坦白说,这是当今时代人们必须理解的至关重要的问题。看看UFO子版块或类似内容,你会看到声称证明低分辨率视频是外星人存在的“AI增强”视频。
但AI添加的内容并不存在于原始图像中。它添加的任何内容(最多)只是猜测。最糟糕的情况是有人给它输入了提示,告诉它应该显示什么。没有任何AI增强的内容能作为证据。
如果你告诉AI这是一张奥巴马的照片(或者它是一个更智能的AI),它可能会给你一个看起来像奥巴马在照片中姿势的结果。但如果他的脸颊上有一块食物或一点胡茬,它不会知道,并会生成一张干净的脸。
每次有人担心人工智能,我就会想起上次尝试使用它时,那该死的东西连一朵玫瑰的轮廓都给不出。
我看不出来有什么问题,机器难道应该识别出奥巴马之类的吗?
谢谢,阿齐兹,这样好多了。
我因为这个引用要下地狱了
为什么他现在看起来是白人,虽然皮肤颜色一样,这是什么情况
布鲁克·哈德森·奥布莱恩出生在檀香山
从奥巴马到快速思考的傻瓜
这是哪个AI模型?
这张图片有来源吗?我将右侧图片降采样为32×32像素以匹配左侧图片,但两者完全不同。我认为在任何图像增强模型中,强制要求原始图像与降采样增强后的图像保持相似性,是一种常见的约束条件。
这是我父亲的梦想增强器:去黑化器
样本数据库的白色程度如何?
和奥巴马一样白
他们甚至为此写了一份白皮书。
这是2020年的技术。石器时代的技术。
有趣的事实:ChatGPT是反向操作的。如果你反复上传自己的照片,它会让你看起来更胖更黑。我怀疑只要人类如此在意,就不可能创造出种族中立的AI。
AI只是基于统计模型进行猜测,但很多人不明白这一点。我见过一些非常聪明的人赋予人工智能神奇的属性,并将其应用在完全不合适的领域。我见过科学家使用ChatGPT进行研究,当被告知它引用的论文并不存在时,他们却毫不在意。这到底是为什么?
现在我好奇,如果是一个不认识的人,人类艺术家会表现如何。
这就是为什么数据集中需要考虑偏见
人工智能种族主义的缺点
难道还有优点吗?
在喜剧中,随意的种族主义和刻板印象可以很好地发挥作用,只要它们不是用来贬低或压迫他人
更像是“训练数据集的人使用了他们自己和他们不太多元化的朋友群体”
这与数码相机一直询问亚洲人是否在眨眼的原因相同,他们需要在训练样本中增加多样性。
真正的多样性,而不是“我们找了个黑人”那种多样性。
不,兄弟,大多数软件公司都有很多印度人,他们通常不会用自己来训练模型,而是从互联网或公开市场获取数据集,这些数据集通常以白人为主。
AI:是的,我们做不到
这和我们的大脑运作方式类似吗?
和我们大脑的运作方式相差不远。
我开始怀疑《犯罪现场调查》中的“增强”功能可能并不真实
如果你稍微眯起眼睛,它们就是同一张图片。
如果我眯起眼睛让两张图片重叠,我看到一个近乎完美的奥巴马。其他人也有这种感觉吗?
AI只会显示与它有限输入最匹配的常见面孔,因为这就是它被编程要做的事情。