ChatGPT 是一种噱头

最近,我参加了在我兼职教授写作的大学举办的人工智能教学研讨会。我对这次研讨会不抱什么希望,但我也很绝望。我的学生不断交出明显由人工智能生成的作文,我需要想办法。我期待着聆听主讲人的演讲,他是一位前大学校长,以主张教师应将所有数字技术移出课堂而闻名,这样他们和学生就能专注于技术无法替代的人际互动。

不过在研讨会上,他要求我们做的第一件事就是打开笔记本电脑,浏览几个大语言模型(LLM),然后输入一个提示。在我们这样做的时候,他一直在说话。我应该注意什么?他,还是我的屏幕?在他喋喋不休的时候,我提示 Claude.ai 针对它向我提出的一个 “创新 ”主题写一篇短文:基于 Reddit 论坛的 “改变我的观点挑战”。主持人坚持让我在提示中使用 “创新 ”一词,这一点非常重要。如果省略了创新,你就会得到不同的结果,可能会更乏善可陈。克劳德吐出论文,告诉我它为自己的作品感到自豪,毕竟论文有 “清晰的论点陈述”。当我说我找不到论述时,克劳德回答说:”你的质疑是对的。再仔细看看这篇文章,没有一个明确的论点陈述能清楚地说明中心论点”。谢谢你,天才。

后来,主持人想展示人工智能在教学定制方面的惊人能力。于是,他要求一个模型当场为自己的书创建一个简短的播客摘要,并补充说,模型应该使用棒球隐喻,因为在这个实验中,用户是一个只关心棒球的运动员。他的想法似乎是,如果用学生们已经熟悉的术语来表达书中的内容,他们会更好地理解书中的内容。他按下了播放键。结果,由令人信服的平淡无奇的数字主持人提供的摘要,肤浅而愚蠢得令人吃惊,从一个陈词滥调(教育就是 “点亮一盏灯”)到另一个陈词滥调(“小心曲线球”)。真的有人能从中学到什么吗?

主持人似乎太努力了。人工智能可以做这个!人工智能可以做这个!人工智能可以做那个!他随意地从一个话题转到另一个话题,在台上蹦来蹦去,对自己关于大型语言模型的奇妙、颠覆职业生涯的影响的言论做出假装震惊的表情。他似乎过于激动,让人觉得他对人类迄今为止的生活和思想节奏感到不耐烦。

这位发言者并不是我今年春天遇到的最狂热的人工智能倡导者。最近一期《高等教育纪事报》刊登了马萨诸塞大学洛厄尔分校曼宁商学院战略学教授斯科特-莱瑟姆(Scott Latham)的狂热幻想。这是一个以人工智能 “代理 ”为特色的愿景,它将为学生提供从入学指导、课程教学到就业安置的定制体验,同时跟踪他们的每一次皱眉和眉头紧皱(因为学生会无休止地盯着摄像头),并在每个时刻做出完美的回应。莱瑟姆称,“人与人之间的互动对现在的学生来说已经不那么重要了,”因此,人工智能大学大概也不会提供什么服务。他承诺,与当前的大学模式相比,所有这一切都将更好、更便宜–别忘了,越来越多的证据表明,大语言模型(LLM)正在退化,变得越来越昂贵。

这一切都会发生。事实上,在这篇 4000 多字的文章中,“会 ”这个词出现了 130 多次。能,只出现了两次。“莱瑟姆写道:”预测人工智能的颠覆是容易的部分。“困难的部分是让人们意识到不可避免”。

从铁路、电视到人工智能,“不可避免 ”的说法对于技术炒作周期至关重要。“学者戴维-格雷-维德(David Gray Widder)和马尔-希克斯(Mar Hicks)写道:”一项技术要想获得市场份额和支持,关键的策略就是将其作为未来基础设施不可避免的必要组成部分,鼓励人们围绕它开发新的、预见性的基础设施。”

人工智能所需的基础设施既不中立,也不便宜。由于数据中心需要大量的水电,它的环境成本是众所周知的。这种基础设施也不仅仅是有形的。它已经在学生的头脑中建立起来,学生们正在成为信息莲花的食客,沉迷于即时、省力的家庭作业答案和按需提供的看似充足的论文。

把过分热情的推销员、令人质疑的预言和明显过高的成本加在一起,我们就会明白:人工智能不是革命性的。它只是一个噱头。它以让我们免于辛劳的前景来诱惑我们,但最终却让我们失望。人工智能的辩护者就像县集市上的小贩,快言快语地介绍着一些新奇的奇迹。大学则是他们口若悬河的标靶,即使他们不确定自己买的是什么,也不确定学生会用它来学习还是仅仅用来作弊,但他们还是掏空了口袋。

文学学者 Sianne Ngai 指出,当一个东西似乎同时太卖力和不够卖力时,我们就称它为噱头。它似乎既节省了劳动,又膨胀了劳动,就像一个虚幻的鲁布-戈德堡装置,只需抬起窗扇,就能削铅笔,而这只是启动了一连串的因果关系,其中涉及绳索、滑轮、砝码、杠杆、火、植物和动物,包括一只负鼠。大型语言模型的装置确实非同凡响。它能接收数十亿页的文字,并计算出让我感到满意的单词配置,从而为它提供新的提示。没有什么能与之媲美。

但看看人们究竟是如何使用这一神奇的工具的:脑洞大开的书籍和视频、充满骗局的广告、精致但枯燥的家庭作业。在我参加的研讨会上,另一位演讲者说,他用人工智能来帮助自己决定当天早上给孩子吃什么早餐。

这种失望不可避免地伴随着噱头。“噱头让我们失望,“Ngai写道,”只是因为它也成功地让我们振奋起来。” 万能的文化生产机器?了不起!然后我们来看看它的成果。维德和希克斯指出,人工智能承诺的失败 “并不令人惊讶,因为生成式人工智能与其说代表着未来的浪潮,不如说代表着过去浪潮的起伏”。MOOCs、NFTs、AR:我们现在应该对这些把戏有所了解了。人工智能在文化生产方面的进展似乎已经放缓,因为这些模型已经没有人类创作的文字可以 “学习”,它们越来越多地以人工智能生产的内容为食,大口大口地喝着自己不断浓缩的污物汤。

人工智能的辩护者们必须否认或至少避免这种失望。他们坚持认为,人工智能技术进步的时间尺度正在缩短–人工通用智能将在十年后出现;不,是五年后;不,我们只需要几个月的时间–即使他们恳求怀疑论者给这项技术一个机会,因为现在还为时尚早。

但这些辩护者自己相信吗?战略学教授莱瑟姆在遐想的最后泄露了游戏规则。“他写道:”如果教授和管理者继续把头埋在沙子里,那么这一切都不可能发生。所以,这终究不是不可避免的?哎呀

* * *
怂恿同事采用人工智能的学者们并非都是如此束手无策。关于人工智能在高等教育中的应用,有一个更微妙、心理上更有趣的论点,显示了骗子和骗子之间的界限有多么微妙。普林斯顿大学历史学教授 D. 格雷厄姆-伯内特(D. Graham Burnett)最近在《纽约客》杂志上撰文,接过莱瑟姆的话题,将自己与否认人工智能的同事区分开来: “每个人似乎都想假装上个世纪思想界最重大的革命并没有发生”。他写道,这种伪装 “简直就是疯狂。它不会长久”。

伯内特的文章似乎对人文研究的价值深表怀疑。鉴于人工智能有能力筛选档案、发现档案内容中的模式,或许还能逐步推进有关档案的内容,学术专著的价值似乎归零。“伯内特写道:”像我书架上的这些书,每一本都要耗费数年或数十年的心血,而现在,它们很快就变成了一个精心设计的提示问题。问题不再是我们能否写出这样的书;它们可以无休止地为我们而写。问题是,我们是否愿意阅读它们?

答案取决于 “我们”。纽约客》的中位数订户想读专著吗?五十年或五百年后的学者想读吗?让我们把它放在那里,让他们来决定。几个世纪以来,这一直是人文研究的价值主张。

伯内特认为,即使学术已死,教学仍有可取之处。许多常春藤盟校的博士在找到一份教学任务繁重的工作后,都会这样做。事实上,绝大多数人文学科博士都处于这种境地。他们中的大多数人都从事兼职教师这种教学任务繁重的工作,如果是终身教职,则每学期在社区学院和地区大学教授四、五、六门课程。他们从未出版过一本专著,研究生毕业后也很少读过专著。对他们来说,学术界已经是伯内特所设想的不远的未来。

伯内特决定将他的教学与他对人工智能的兴趣结合起来。他在一门本科课–据我所知,这是他今年春季教授的唯一一门课–上指派学生与一个关于人类注意力的聊天机器人互动,并将文本转化为一篇短文。他对他们的成果赞叹不已:

在我客厅的沙发上阅读这些成果,是我教学生涯中最深刻的体验。我不知道该如何描述。从根本上说,我觉得自己是在观察一种新生物的诞生,同时也是在观察一代人面对这种诞生的过程:与某种东西相遇,这种东西既是兄弟姐妹,又是竞争对手,既是粗心大意的孩子–上帝,又是机械形态的影子–一种熟悉的外星生物。

在伯内特的眼中,他的学生不仅具有普通意义上的创造力,能用好词好句或建立巧妙的联系–这已经是减轻沉闷作文评分负担的能力了。不,伯内特的学生是魔术师、唤醒者,也许是小神仙,能够打破我们大多数人所遵循的旧的物质法则。我知道这种冲动。在职业上自我怀疑的时候,我常常试图说服自己,我的学生是了不起的,他们停滞不前的努力实际上是辉煌的,我的课,在他们成绩单上列出的课程中是独一无二的,开启了他们心中的某种东西,学生们在教我,事实上,我所需要做的就是让开他们的路。

这是许多教师对自己撒的谎。为什么不呢?又不是有人能查证事实。你的学术研究,或缺乏学术研究,都是公开的;你的学生的工作,都是在《家庭教育权利和隐私法案》的高墙之后进行的。你给自己讲了一个既自我否定又自我吹嘘的故事。你这样说是为了让学生们振作起来,毕竟你是为了他们而存在的。这一点没错,你确实是为了他们。但你讲这个故事也是为了贬低你那些不近人情、僵化的同事,那些不理解你的人。你讲这个故事是为了让自己不觉得像他们一样老,因为你在精神上更接近年轻人。对伯内特来说,人工智能对话提供了阳光下真正新的东西。“我拿起的每一沓纸“,他写道,”都比上一沓更令人惊讶” 当然。

这并不是说我从未被我学生的写作惊艳过。伯内特报告说,他的一个学生与聊天机器人的互动让他感动得流泪。我也曾在阅读学生作文时流泪。我曾经有个学生,在电话公司工作了四十年,退休后才开始上大学。他的文笔不是很好,但他写的东西发自内心。在一堂关于宗教自传的课上,他描述了自己去医院与杀害了我学生母亲的那个男人谈话的情景,当时那个男人已经奄奄一息。那个人请求我的学生原谅他。我的学生原谅了他。他原谅了。这篇文章见证了我们很少有人能够做到的一种爱。坐在厨房的餐桌前,我读了第二遍这篇作文,我哭了第二遍。这是一篇罕见的学生作文,它的存在改善了世界。它让更多人知道了仁慈。

* * *
最后,伯内特基本上与他那些鸵鸟式的同事站在了同一起跑线上,尽管他并没有意识到这一点。他写道:“你再也不能让学生进行阅读或写作了,”因为他们可以让机器代劳。“那么还剩下什么呢?只有这样:给他们他们想做的工作。并帮助他们愿意去做”。这是失误吗?这是一个信号,表明精通人工智能的学生终究不需要老师?如果学生想做作业,那他们就不需要帮助。不,唯一的任务仍然是早在柏拉图的《美诺》中就已指出的悖论: 给学生布置他们不知道需要做的作业。是的,帮助他们想做。

我发现,要克服学生对学习的抵触情绪,往往需要欺骗他们。有一种古老的诱饵–提供成绩,然后看到一些学生学会热爱学习本身。作业本是窍门,小组讨论也是窍门,甚至教师的魅力也是窍门。我肯定在课堂上也用过棒球类比。面对改造学生欲望的困难,你可以欺骗自己,让自己相信你正在这样做,晚上就能睡个好觉。我不知道对谁来说,这是一项简单的任务。对任何教师来说,这都是一个挑战,而人工智能给学生–显然也给一些教师–提供了一个诱人的幻觉,那就是有一条捷径可走。

伯内特的文章发表的那一周,我参观了奥斯汀社区学院特德-哈齐-安蒂奇(Ted Hadzi-Antich)的课堂。他的政治哲学优等生正在讨论詹姆斯-鲍德温(James Baldwin)的《下一次火灾》(The Fire Next Time)的最后一节。他们想谈谈死亡。他们坐在椅子上围成一圈,没有课桌相隔。我本希望自己能不引人注目地坐在角落里,记录下当时的情景。“角落里不适合学习!”一个学生斥责道。好吧,好吧。我在场。于是,我被卷入了即将发生的事情。

在长达 80 分钟的时间里,11 名学生和哈齐-安蒂奇进行了交谈。我在最后插了一句。没有学生发短信。没有人消失在屏幕中。两个人哭了。他们把加亮的读本放在膝盖上,但没有多谈。即便如此,他们还是将鲍德温的观点与他们不同的生活经历联系起来,包括失去亲人、毒瘾和偏执。有两个学生对过去的用途持有不同意见。后来,他们告诉我,他们都把对方称为自己的 “对手”。他们似乎相互尊重,整个学期都在阅读对方的文章并在课堂上进行辩论。他们知道对方的声音。

伯内特似乎认为这才是新的,或者说是令人兴奋的,这要归功于他与人工智能的接触–早在人工智能出现之前,哈齐-安蒂奇等教师就已经在他们的课堂上安排了这样的活动。事实上,哈齐-安蒂奇通过他领导的 “大问题基金会”(The Great Questions Foundation)在社区大学推广基于文本和讨论的教育。给学生一本书,让他们阅读和讨论,你不需要体验技术的崇高,也能看到它的价值。你确实需要接受类似马克斯-韦伯(Max Weber)关于教师天职的观点,即帮助他人 “重新认识(他们)自身行为的终极意义”。这种思考不是用机器就能完成的。如果你想让自己不付出劳动,你就会失败。

* * *
我花了很长时间才写完这篇文章。我有大量的愤怒、沮丧和悲伤可以利用。我有证据和评论,但找不到论据。我一直在努力。参加学校的人工智能研讨会后,我改变了整个写作重点。这让我豁然开朗。我在阅读学生的草稿和阅读他们完成的研究论文之间的间歇期工作了好几天,我确信有些学生自己完成了所有的工作,因为我看到他们搭起了脚手架,然后一砖一瓦地完成了论文。我知道其他人可能只做了很少的工作,但我无法证明这一点。在我工作的过程中,每天都会出现关于教育领域人工智能的新文章和愤怒言论,这让我觉得自己好像落后了。相信我,我想要一条捷径。

在开始写这篇文章之前,我还没有读过《噱头理论》,只是从我的文学教授妻子那里听说过。为了尽快了解情况,我阅读了 Ngai 早先写的一篇文章,并将其改写成一章。然后,我浏览了我妻子那本做了很好标记的《噱头》,注意到她在空白处划线、加星的段落和 “嗯!”。我依靠索引找到关于信仰的段落。这本书的大部分内容我都没有读。

我这样做是因为我知道自己是凡人。我读不起一本长达 400 页的理论散文。这并不是对倪氏的贬低。她的书值得细读。我只有这么多时间。即使这听起来像是学生们为自己走人工智能捷径所找的借口,我也不认为我们的意思是一样的。

当我有了完整的草稿后,我请我的妻子阅读并发表评论。当时,她正在写一篇关于赫尔曼-梅尔维尔(Herman Melville)的《自信的人》(The Confidence Man)和马克斯-韦伯(Max Weber)的《科学是一种天职》(“Science as a Vocation”)的论文。后者是我们饭桌上的经典话题。她只需简单提及韦伯的一个关键段落,我就知道这篇论文缺少了什么。她的关注、她的注意力以及她生活和思想的偶然性在这篇文章中无处不在。如果她那一周读的是威廉-詹姆斯或亨利-詹姆斯的作品,情况就会不同。在很大程度上,贯穿她和我生活的思想回路,跨越二十年的文学与文化、爱情与死亡的话题,构成了我们共同的生活。

得到她的反馈后,我最后问 ChatGPT,生成式人工智能是否可以被视为倪匡意义上的噱头。我没有仔细阅读它的回答。每当看到电脑屏幕上层层叠叠的文字,我就有一种沉甸甸的感觉。我真的有必要读这个吗?我知道我不可能找到什么真正有趣或令人惊讶的东西,而这些文字的轻松出现确实让它们变得廉价了。

ChatGPT 报告说,这的确可以被视为一个噱头。然后,我问这个噱头,教育工作者应该如何在大学和学校里实施它。它写道:“教育机构能做的最糟糕的事情,就是不加批判地拥抱人工智能,将其视为不可避免的‘效率升级’,””因为这将意味着加剧倪恺所诊断的噱头:错把容易当价值,错把产出当理解。” 接招吧,斯科特-莱瑟姆。当然,这正是我希望机器说的话。我和模型争论得够多了,它可能知道我希望它能自我批评。我怀疑它只对我承认这种事情。我希望它能告诉大学校长、信息官员、教授,当然还有学生,连 ChatGPT 都认为它是个噱头。但它只告诉他们他们想听的,而不是我想听的。

特德-哈齐-安蒂奇的学生们阅读并讨论了詹姆斯-鲍德温(James Baldwin)的这些话:“也许我们的麻烦,人类麻烦的全部根源在于,我们将牺牲我们生命中所有的美好,将把自己禁锢在图腾、禁忌、十字架、血祭、尖塔、种族、清真寺、军队、旗帜、国家中”–我可能还要加上技术和炒作泡沫–“以否认死亡这一事实,而死亡是我们唯一拥有的事实”。

教师工作的一部分–当然是在人文学科,甚至是在商业等专业领域–就是帮助学生走出他们的牢笼,至少一个小时,让他们看到并提升自己心灵的美。这就是帮助他们学会共同捍卫自己想要的生活方式,正是因为他们与机器不同,终有一天也会死去。

我愿意牺牲自己的一些时间,为他人的余生体验增添深度。许多人为我这样做。这项工作进展缓慢。它的成果往往数年都看不到。但这不是噱头。

本文文字及图片出自 ChatGPT Is a Gimmick

你也许感兴趣的:

共有 152 条讨论

  1. 这些 “人工智能只是一个毫无用处的噱头 ”的文章在我看来只是在告诉我,大多数人都缺乏想象力。我从人工智能(特别是 ChatGPT 和 Midjourney)中获得了如此多的价值,以至于很难想象几年前这根本不可能。

    区别似乎在于,我一直在关注这些工具,并思考如何以创造性的方式使用它们来实现目标–而不仅仅是把它当作一个无需微调就能解决所有问题的神奇按钮。

    举几个例子:

    – 有一种说法叫图片优势效应,它指出人类对图片的记忆比对文字的记忆更好。我一直有兴趣将其应用到语言学习中–比如,想象一下,你在学习德语时,每个单词都有一张独特的图片。几年前,我还打算雇一名插图画家来为我制作这些图像,但现在有了 Midjourney 或其他图像制作工具,我只需每月支付 30 美元,就可以制作无限量的独特图像。这是一个巨大的新发展,以前是不可能实现的。

    – 我一直在制作一份人工智能工具清单,这些工具对 “思考 ”或分析一篇文章非常有用。比如:分析这篇文章中的假设;通过谱系链接查找相关概念;检查这个想法是否具有独创性;将这个论点重新表述为一系列苏格拉底式对话。等等。这种方法对我评估自己的文章和观点大有帮助,而在使用人工智能工具之前,除非我请人对我的作品进行点评,否则也不可能真正做到这一点。

    这两个使用案例的关键在于,我完全不奢求完美。我不期望人工智能图像或文本没有错误。关键是要把它们当作杂乱无章的创造性工具来使用,为你打开各种可能性和未曾考虑过的角度,而不是替你完成所有工作。

    1. 所以基本上,你会因为人工智能可以廉价替代人类而感到高兴?

      我的意思是,当然,从纯粹以利润为导向的角度来看,这是件好事,但你需要意识到,被取代的人类也不会感觉太好。尤其是当人工智能之所以能工作,是因为它利用了像他这样的人的工作成果。

      拥有人工智能资本的人肯定会为成果感到高兴,但他们需要考虑分享创造的财富,否则这只是将价值不公平地转移给了已经富可敌国的一小部分人。

    2. > 这些 “人工智能只是一个无所作为的噱头 ”的文章在我看来大多只是在告诉我们,大多数人都缺乏想象力。

      要么就是不同的人对生活、科技等有不同的看法。如果你不是把生活当成某种 minmax rpg,那么不使用大语言模型(LLM) 来 “优化 ”生活的方方面面就完全没问题。我不需要大语言模型(LLM) 来总结一篇文章,我只想在早上 15 分钟的咖啡时间里读一读。我不需要一个大语言模型(LLM) 来告诉我,我的文章应该如何改写,才能看起来像统计平均水平的好文章…

      1. 这完全没问题,但这篇文章是在做一个广泛的陈述,而不是个人观点。

        1. 对于绝大多数人来说,大语言模型(LLMs) 深陷噱头领域,它是你用来生成吉卜力风格个人形象的有趣东西,或者是你懒得写的人力资源电子邮件。

          如果你不是一小部分技术爱好者或公司的直接受益者,那就真的没什么大不了的。

          1. 不,不是这样的。从世界各地的大学到办公室,到处都在使用这种东西。它远不止是一个噱头。

            1. 因为你买了蛇油,所以有人把东西塞到你的脸上,这绝对是一种噱头。

              如果你与被迫使用这些工具的工人交谈,你会得出不同的结论。

      2. >> 这些 “人工智能只是一个毫无用处的噱头 ”的文章在我看来只是在告诉我,大多数人都缺乏想象力。

        > 要么就是不同的人对生活、科技等有不同的看法。

        绝对是这样。当稳定扩散技术问世时,我还记得人工智能爱好者们滔滔不绝地说这是 “创造了他们所见过的最美的艺术 ”之类的话,这让我抓耳挠腮,不知道他们在嗑什么药。

        > 如果你不是把生活当作某种 minmax rpg 来过,不用大语言模型(LLM) 来 “优化 ”你生活的方方面面是完全没问题的。我不需要大语言模型(LLM) 来总结一篇文章,我只想在早上 15 分钟的咖啡时间里读一读。

        没错。有些人希望在自己的头脑中真正理解一些东西,而有些人似乎可以在他们并不真正理解的输出机器上徘徊。

        具体到总结这件事,在大语言模型(LLM)之前就有这样的服务(我的经理曾经给我订阅过一个),但我一直不喜欢。我为什么要浪费时间去消费这种肤浅的东西?我从不觉得它有任何影响,感觉就像花边新闻,让人觉得你学到了什么,但其实没有。这很讽刺,因为那些看起来对这些东西很热衷的人,却误以为所有的东西都是三点一线,裹在绒毛里。

        > 我不需要一个大语言模型(LLM) 来告诉我,我的文章应该如何改写,才能看起来像好文章的统计平均值…

        尤其是我一听到 ChatGPT 的语言就翻白眼。

    3. 这篇文章主要是关于 genAI 在教育中的应用。

      这篇文章是作者在参加一个研讨会后写的,在研讨会上,主持人试图展示人工智能如何在提示 “创新 ”一词时写作文或制作关于一本书的播客,但似乎失败了。作者还提到了一位大学讲师的文章,他声称 “人与人之间的互动对现在的学生来说已经不那么重要了”,人工智能基本上会取代人与人之间的互动。

      这篇文章的副标题是 “人工智能无法拯救我们学习生死的努力”。

      换句话说,这篇文章针对的是高等教育中的一种特定趋势,即把人工智能说成是某种革命性的工具,将彻底改变学生的学习方式。

      作者对此并不认同,他认为,假装用 genAI 取代大部分人类互动是一种噱头,假装人工智能可以让学习变得毫不费力是在欺骗学生。

      你使用人工智能学习语言的方式当然很有想象力,但你并没有声称它能取代与母语使用者互动的质量,或者可能取代对文化的沉浸。你的工具可能很有用,也很聪明,但如果声称它能让语言学习变得毫不费力(就像教育界的一些人工智能辩护者那样),那它就是一个噱头。

    4. 在一个更完美的世界里,我们只是在讨论技术的优劣,我会更倾向于同意这一点。但我不得不承认,这项技术的全部意义就在于无所不能。

      人工智能从富人那里获得如此多的资金和支持,是因为他们相信可以用人工智能取代人类,降低劳动力成本。我强烈地怀疑,人工智能之所以能为我们所用,不过是一个阴谋,目的是让我们为他们训练和排除技术故障,以便它能更完美地模仿我们。最终,当技术 “足够好 ”时,它就会迅速变得过于昂贵,普通人根本无法使用,从而变得无法使用。

      公司已经在大量解雇员工,转而使用人工智能代理,尽管这些代理甚至都做得不好。试想一下,当他们真的这样做时,情况会是怎样?

      1. 哦,你强烈怀疑一个由富有精英组成的全球阴谋集团正在操纵世界?你关于全球权力的无稽之谈与人工智能用例有什么关系?

        1. 富人正在操纵世界,而且经常明确告诉我们这对他们有利。因为他们富有,所以不需要组成全球阴谋集团也能做到这一点。

    5. > 这些 “人工智能是无所作为的噱头 ”的文章

      我不认为这是对这篇文章的准确概括。你是仅凭标题就这么说,还是从根本上就不同意作者的观点?

      > 文学学者 Sianne Ngai 指出:”当一个东西看起来既过于努力又不够努力时,我们就称它为噱头。它似乎既节省了劳动,又膨胀了劳动,就像一个虚幻的鲁布-戈德堡装置,只需抬起窗扇就能削铅笔,而这只是启动了一连串的因果关系,其中涉及绳索、滑轮、砝码、杠杆、火、植物和动物,包括一只负鼠。大型语言模型的装置确实非同凡响。它能接收数十亿页的文字,并计算出让我感到满意的单词配置,从而为它提供新的提示。没有什么能与之媲美。

      1. 不知道 “噱头 ”的定义如何适用于我所写的内容。给人工智能工具贴上噱头的标签,意味着它们既节省了劳动力,又夸大了劳动力,因此没有提供真正的根本性改进或价值。

        根据我的亲身经历,这绝对是无稽之谈,而我却从中获得了巨大的价值。大多数批判性的论点(如链接)几乎总是来自那些把它们当作基本聊天机器人使用的人,他们对这些工具没有任何更深入的了解或探索。

        1. 另一位评论者谈到了人工智能 “打动白痴 ”的能力。我看到过很多这样的例子。你的用法听起来很不白痴,我并不是说你是白痴–但听起来你对这种批评的看法是基于这样一种想法,即每个没有像你一样巧妙使用人工智能的人都是白痴,他们只是没有意识到如何在 “探索 ”这些工具的过程中获得 “更深层次的理解”。

          请考虑一下,外面有一些非常聪明的人。我个人可以回答你关于语言的问题–我会说三种语言,并在另外两种语言中长期生活和工作过,但我不会说自己 “精通 ”这两种语言,因为这已经是好几年前的事了。我不会用大语言模型(LLM) 为每个单词生成图像,因为我已经有了自己喜欢的工作方法,我认为这是在浪费资源。我热衷于永久计算、资源最小化等。

          当我看到你提出这个想法时,我想,哦,很好,但如果你为每个单词画一个 30 秒的草图,并在画的过程中不断改进,肯定会更有效。

          总之–一定要读读这篇文章,它非常好!你是在回应一个根据标题想象出来的论点,而忽略了一个细微而严肃的论点,你说:”是的,但我用得很好: “是的,但我用得很好,所以呢?对我来说,这不是噱头!”

          1. 我确实读了这篇文章,之后写了我的评论。我觉得这篇文章一点也不细致,作者对使用大语言模型(LLMs)的描述充其量只是业余的,这正是我的观点。

            30 秒的草图也远不如详细的图片有效,而且在实施图片优势效应方面的价值也很可疑。

            我可没说那些写文章说人工智能没用的人是白痴。这是你的说法,不是我的。我只是说他们在探索新工具的潜力时缺乏想象力和创造力,而只是提出了一些无力的批评。

            1. 我觉得我们好像在各说各话。为了便于理解,我觉得我从你那里读到了以下内容:

              1. 在一些情况下,作为一个非专业人士,我从这些大语言模型(LLM)工具中得到了很好的利用,因为我在使用它们时富有想象力和创造力。

              2. 2. 作为非专家,我在这些领域得到了如此大的利用,任何专家说它们是噱头,都是大错特错的。他们只是需要像我一样,变得更有想象力和创造力。

              我是不是误解你的意思了?你真的是这个意思吗?

              如果我可以直言不讳的话,思维上的漏洞似乎是显而易见的。我建议你请大语言模型(LLM) 帮你分析一下,但我认为他们在这方面相当不擅长,因为他们的程序会把你的偏见以积极的方式反射给你。它们最大的认识论问题可能就在于此–只有当用户对自己的偏见非常了解时,才有可能克服这种安抚用户的倾向,而这是即使是最好的专家也会面临的问题!

              1. 我说,一概而论大语言模型(LLM)是噱头的人需要更有创造力。然后,我列举了几个例子,说明我如何发现它们的用处,重点是我并不期待完美。

                这并不复杂。有人写了篇文章说 X 是噱头,论据很薄弱。我说不,根据我的经验并非如此,这里有几个例子。

                你这种颐指气使的语气让人很不爽,而且会分散你的注意力。但我不确定你是否真的有诚意,所以我想这次谈话到此结束。

                1. > 我说,一概而论大语言模型(LLMs) 是噱头的人需要更有创意。然后,我列举了几个例子,说明我如何发现它们的用处,重点是我并不期待完美。

                  我只想指出,他们正是这样描述你的观点的。鉴于他们只是在解释自己的观点,很难理解你怎么会觉得他们的语气是在袒护你。值得注意的是,其他人可能会觉得你的话是在袒护他们:

                  > 这些 “人工智能是无所作为的噱头 ”的文章大多只是在向我传达,大多数人都缺乏想象力。

                  > 大多数批判性的论点(如链接)几乎总是来自那些把它们当作基本聊天机器人使用的人,而没有对这些工具进行任何更深入的了解或探索。

                  > 我说,一概而论大语言模型(LLMs)是噱头的人需要更有创造力。

                  1. 如果有人试图做出最不友好的解释,那么当然,我写的这些话可以被解释为某种对我自己的天才和才华的吹嘘。

                    对于其他人来说,他们显然明白我是在批评这篇文章,并展示了我是如何通过跳出条条框框的思维方式在人工智能工具中发现了一些真正的价值。也就是说,它们不是噱头。

                    而另一位发帖人的评论则充满了自作聪明、自命清高的态度,坚持认为我没有读过这篇文章,我只是为了吹嘘自己的创意才华才发表了这篇评论,“只有白痴才会看到人工智能的价值–当然,你不是白痴”。

                    写这种文章的人是在耍小聪明,而不是在进行真诚的对话。

                    1. 我本打算就此打住,就像你之前建议的那样,因为我觉得你无法或不愿意参与我的观点,而是专注于琐事、语气警戒等等。

                      徒劳无益已经很明显了,但我还是要第三次提出同样的观点,尽管你已经表示了不理解的决心。

                      > 对于其他人来说,他们显然明白我是在批评这篇文章,并表明我是如何通过跳出条条框框的思维方式发现人工智能工具的一些真正价值的。也就是说,它们不是噱头。

                      这句话的逻辑基础是,你使用了这些工具并从中获得了 “真正的价值”,这就证明这些工具不是噱头。这是毫无道理的。

                    2. 两位的批评都有道理。看来,大语言模型(LLMs) 既有创造性,也不够创造性,这取决于预期的用例。这可能是一种先进的、尚待理解的范式的标志吧?

          2. > 当我看到你提出这个想法时,我想,哦,很好,但如果你为每个单词画一张 30 秒的草图,并边画边改进,肯定会更有效。

            或者,你知道,想象一些东西。我在学习母语之外的三门流利语言时就是这么做的。

            1. 实际上,我并没有想象过什么,我喜欢单词的发音和轮廓,觉得在句子的语境中学习它们很容易。但生动的想象听起来也很有趣

    6. > 人工智能的价值(特别是 ChatGPT 和 Midjourney)

      我同意人工智能和 ML 工具有一个领域出奇地好,那就是艺术生成。

      但是,我看到人工智能生成的图片泛滥成灾,总的来说,我觉得它让这个本来就很麻烦的世界变得更麻烦了。我开始看到 “图片是人工智能制作或人工智能修改 ”的借口成为主流。

      现在,一张图片已经失去了所有意义。

      > 有助于 “思考 ”或分析文章

      这一点我深表怀疑。如果你用 “火车会飞 ”这样的语言来训练大语言模型(LLM),那么它就会吐出这样的文字。它们可能是很好的总结或搜索工具,但要声称它们是 “思考 ”和 “分析 ”工具,那可不行。

      1. 事实上,大多数动画艺术都是普通的垃圾,这恰恰反映了大多数人在制作动画时缺乏想象力。很遗憾,但这是事实。实际工具本身就令人难以置信。

        我指的是我自己在 ChatGPT 的帮助下思考和分析一篇文章,而不是 ChatGPT 本身的 “思考”。(尽管我坦率地认为,如果机器在思考,这一点就无关紧要了)。因为通过让 ChatGPT 分析一个想法并提出类似的概念,我绝对获得了大量的新见解和新知识。

        1. > 因为通过让 ChatGPT 分析一个想法并提出类似的概念,我绝对获得了大量的新见解和新知识。

          你是打算通过构建一些东西来测试它们,还是在与专家对话时使用这些概念?

          1. 不知道你说的测试是什么意思。我具体指的是知识、史实、要研究的新书和哲学家等。因为 ChatGPT 的建议,我发现了一些我不知道的新作家。

            同样,用人工智能来评论一篇文章已经是 “测试 ”了,因为它肯定会提出有用的建议。

    7. 大多数人都没有持续学习、深入研究或探索知识边界的动力。因此,人工智能很有可能会放大或加深现有的跳读差距,并创造出更多的跳读差距。善于学习并能深刻理解基础概念的人将能利用人工智能学习更多、更深的知识,并按需解决更难的问题。抗拒学习的人则会把人工智能当作作弊工具,最终使自己陷入困境。

      例如,2013 年的一份 PIAAC 报告称,只有 9% 的美国成年人被认为精通数学和复杂推理。而PIAAC使用的问题可以说只是高中水平。据说,有多少人听自己的教授或高中老师抱怨过,大多数学生甚至无法真正掌握线性方程组或分布式性质(学生可以记住规则并通过高中考试,但如果要通过其他国家的全国入学考试,他们中的许多人将毫无希望)。

    8. 是的,这是对周围过度炒作的错误的沮丧。我总在想,如果作者们 “发现 ”了这项服务,而其他人又不知道的话,他们一定会大声疾呼的。

    9. 你的例子都很有噱头,不是根本性的价值转变。

      1. 非常有趣的是,当被正确地指出这一点时,发帖人也会变得非常自卫。

        今后我们还会看到类似的情绪失控。可能需要新的策略来说服人们为什么他们错了。如果鹦鹉说他们其实是对的,那就更难了。

    10. 我认为,这更像是给某人一把瑞士军刀,而他们却抱怨这把刀连一块木头都砍不动,因为他们在社会中的角色就是以砍木头为报酬的。他们只会砍柴。除了砍木头,他们对其他任何事情都不感兴趣。

      这把瑞士军刀毫无用处!

    11. 这些都是噱头。普通人根本不在乎这些。

    12. 你说的都是废话,老兄。

      你不需要人工智能来实现你列出的那些东西,使用人工智能降低了你作品的可信度和质量。

      我的工作中没有使用任何人工智能。这使得我的作品值得人工智能扫描–但不是你的。

  2. 我个人觉得,人工智能的一些炒作是被它创造华而不实的演示的能力所驱动的,而这些演示却成了无用功。

    举个例子,“给我写个聊天应用示例 ”什么的,很容易就能让人惊叹于它能如此快速、全面地实现这个想法,但这也引出了一个问题:现在怎么办?

    我认为,与图像生成类似于剪贴画(非常有用,但缺乏深度和意义)一样,人工智能代码生成项目也类似于网页模板。它们可以帮助你入门,比你自己做更进一步,但最终你必须在迈出第一步(人工智能)后决定 “现在做什么”。

    1. “给我写一个聊天应用示例 “之类的例子很容易就能实现,而且它能如此快速、全面地实现这个想法,让人惊叹不已,但这确实有点引出了一个问题:现在怎么办?

      我们已经有了这个问题,只需 “git clone https://github.com/whatevs/huh”,或从数以百万计的教程中选择一个就可以了。几乎每个能用 Elixir/Phoenix 构建东西的人都有一个聊天应用、一个电子商务商店和一个搜索平台。

      1. 大语言模型(LLM) 比 git 更好用。

          1. 我不是你要问的人,但我还是要回答。

            因为我两个都用过。

    2. 我看到的所有演示都在工作中做出了妥协,从而阻碍了你对它们进行加固,或者以其他方式将你锁定在非常具体的概念上,而你根本不可能从最小的低级构件开始构建,甚至不可能从超高级状态机占位符开始构建。根据我的经验,无论我如何努力,它都会在生成的总输出权重的引导下,朝着不理解分隔价值的方向发展,并会添加令其概率在内部起作用的标记。

  3. 人工智能是噱头,智能手机是噱头,电脑是噱头,自动化是噱头,书籍是噱头,只有%MY_ENLIGHTMENT%不是。

    说真的,我可以理解对加密货币或当时的任何流行语说这样的话,但即使是现在的大语言模型(LLMs)也是字面意义上的魔法。与其读 10 页空洞的白开水浪费我的时间,ChatGPT 可以将其总结为

    > 马莱西奇认为,人工智能炒作–尤其是在教育领域–是一种肤浅的噱头:它过度承诺革命性的变化,却提供平庸、低价值的产出。真正的教学依赖于缓慢的、牺牲性的人类劳动和深入的讨论,这是任何人工智能捷径都无法复制的。

    几乎没有任何革命性的思想。

      1. 和往常一样,这篇论文一来就死。他们用过时的模型和非推理模型进行了测试。

        用任何 SOTA 推理模型(GPT-o3、Gemini 2.5 Pro、Grok 3)再试试。

      2. 好吧,我不同意。

        出于好奇,我用 ChatGPT 做了一个 “FreeBSD 与 Linux 对比 ”的总结,结果在我看来是非常公正和切中要害的。

      3. 在所有大语言模型(LLMs)转而使用人工智能生成的数据进行训练并变得比以前好一倍之前的一周,有一篇关于使用人工智能生成的数据进行训练将是大语言模型(LLMs)的死穴的论文被广泛讨论。

      4. 总结这篇空洞的咆哮已经很不错了。

    1. 他们哪里说智能手机和电脑是噱头了?

        1. 我不认为你可以 “害怕 ”你认为是噱头的东西。另外,如果你认为智能手机没有带来巨大的负面影响,那就他妈祝你好运吧。

          如果大语言模型(LLMs)有他们假装的 50%那么好,我们就会看到生产力全面大幅提高,但我们根本没有看到,chatgpt 发布至今已经快 3 年了。生产率的提高在哪里?产生的额外财富在哪里?

          1. > 如果大语言模型(LLMs)有他们假装的 50%那么好,我们就会看到生产率全面大幅提高,但我们根本没有看到,chatgpt 发布至今已经快 3 年了。生产力的提高在哪里?产生的额外财富在哪里?

            我当然知道。你不会看到的,因为我用它来减少工作,而不是增加工作。

    2. > 与其读 10 页空洞的白水文章浪费我的时间,ChatGPT 可以将其总结为

      绝对值得投资数十亿美元并浪费大量精力……我不知道人们是如何把 “这是一场革命!”和 “它总结了我当初懒得看的 10 页 PDF ”这两句话合二为一的,却没有注意到要调和这两种观点,你必须进行大量的智力体操。

      更不用提现在污染网络的数百万个新生成的大语言模型(LLM)

      1. > 甚至不提现在正在污染网络的数百万个新的大语言模型(LLM)

        是的,因为在 2022 年之前,互联网还是一片净土,没有垃圾和废话。

        说实在的,对大语言模型(LLMs)/人工智能(AI)的批评是有道理的(环保、过度的短期乐观主义、有意和无意的滥用)。

        但如果假装这不是一场革命性的变革,那就太盲目了。人工智能 “不可能做到首席信息官们希望向首席执行官承诺的所有事情,当然也不可能做到非 IT 高管认为它可能做到的所有事情,但毫无疑问,它已经能够在多个领域节省大量时间,其中最好的一些领域包括

        * 研究

        * 编辑

        * 翻译

        * 代码生成

        所有这些都需要用户不关闭大脑(这确实是大语言模型(LLMs)的一个风险)才能正确使用人工智能,但假设你有能力使用大脑,它们就能节省大量时间。

      2. 问题是,我的脚本每天要阅读 3K 篇文章,以发现异常和相关性。人类做不到这一点。

      3. 尽管你是个稻草人–是的,绝对值得为此投入每十亿美元。一台该死的机器可以理解文本,在一分钟内缝合数以百万计的信息源,并为我提供文本摘要、阅读该主题的资源,并在需要时切换到完全不相关的主题。

        如果这还不算奇迹,那么只有真正的人工智能才是奇迹。

  4. 对我来说,大语言模型(LLM)的实用性与谷歌变得有多糟糕成正比。当你搜索某样东西时,你会得到一堆博客垃圾或其他 SSO 优化的狗屎结果,打开的页面会弹出几十个弹窗,要求你订阅或注册账户。ChatGPT 会立即给你答案,而且我必须说,我发现它 90% 的时间都能帮上忙。

    对于简单的编码问题,它也非常不错,因为它会将你当前的语境考虑在内。它基本上就是一个更智能的 “从 stack overflow 复制粘贴”。

    至少现在,大语言模型(LLMs) 并没有取代我任何有意义的工作,但它们越来越多地取代了谷歌。

  5. >人工智能无法拯救我们学会生存和死亡的努力

    你可以用几乎任何东西来代替人工智能这个词,这句话都是对的。汽车、房子或爱情也无法拯救我们,但这并不表明它们是噱头。

  6. > 莱瑟姆称:”人与人之间的互动对现在的学生来说已经不那么重要了。

    天哪,真让人沮丧。这是要把个人主义推向高潮吗?

    我记得在学校时,我很讨厌做小组项目。大多数情况下,小组里有五分之三的人什么贡献都没有,而剩下的人却不得不挑起大梁。但即使是懒鬼,互动也是有价值的。

    也许人与人之间的合作是人们需要学习的一项重要技能,但这不应该以失去更多的人与人之间的合作和互动为代价。

    1. > 大多数情况下,小组中的五分之三的人什么贡献都没有,剩下的人不得不挑起大梁。

      不用担心,如今 3/5 的人都在做无用功,而第 4 个人则会给你发一些语无伦次的 GPT 垃圾,然后就从地球上消失了,直到作业要交的那天晚上 11:30。

      我见过有人说,大学应该是教你如何与他人合作的技能,而不是你所学的专业。很高兴看到他们还在坚持。

  7. 我最近意识到的一个问题是,人工智能的炒作感觉比之前的炒作更上一层楼,因为人工智能本身就在制造 “炒作 ”内容,在社交媒体上到处灌输给我(以及我的老板和同事)。

    技术人员对人工智能的 “FOMO ”情绪一发不可收拾–每个人都认为别人在人工智能上取得的成功比自己多得多。

    1. 一款自我炒作的产品。世界真奇妙。这的确可以解释很多认知失调的现象。

  8. 我用人工智能对整篇文章进行了总结,并给出了我的收获–它已经为我节省了 0.5 小时的阅读时间,但最终我还是不同意它,因为在我看来,这篇文章对人工智能的评价过于苛刻。

    我发现人工智能非常有用,即使不用于专业编码,我也愿意花 20 美元/月来购买,而且我是一个像瘟疫一样避免任何类型订阅的人。

    即使是在本文主要关注的教育环境中,人工智能也是超级有用的。不是每个人都有机会接触导师和学者。我教家人如何使用它,并尝试自己解决他们的技术问题,从而节省了大量时间帮助他们解决典型的技术问题和故障排除。

  9. 我的工作大约有 60% 是写作。写懈怠、写代码、写设计文档、写策略、写校准。

    ChatGPT 让我的写作速度提高了 50%,质量提高了 50%。它是过去 10 多年来最大的生产力提升之一。

    1. 其中之一?请告诉我还有哪些工具对你的影响更大,我想使用它们。

  10. 我认为,把任何话题都强加于 “好 ”或 “坏 ”是人类的天性。我同意这位作者对人工智能表现的大多数批评–它_是_非常不擅长写文章,我敢说大多数事情(包括代码)都是基于单一的提示。但说它是个噱头,并将它与那些已经或正在消亡的技术相提并论,在我看来,这似乎是一种直观的反应,也许是在经历了人工智能生成的作业泛滥之后(人工智能的使用最终只会浪费每个人的时间)。

    我想,这里的大多数人至少知道几种使用人工智能的方法,而这些方法对他们来说是真正有用的。我想,如果你对人工智能非常看好,那么有一篇两极分化的负面文章让我们记住人工智能被过度承诺的所有方式也是件好事。我非常期待找到应用人工智能的新方法,但探索阶段可能会让人觉得是在推销蛇油。我们必须实事求是,承认这项技术生产内容的速度比我们消费内容的速度更快。这些内容需要我们花费精力去区分是否有用。

    综上所述,我不同意这样的观点,即 “帮助学生走出牢笼,至少一小时,让他们看到并提升自己的思想之美 ”的唯一途径是通过教学,而不是通过人工智能等技术。教育系统确实让我失望了,我反而在科技中找到了很多乐趣。对我来说,这是互联网的开始,但我只能想象,对今天的许多人来说,这将是人工智能的开始。

    1. > 我想这里的大多数人都知道至少有几种使用人工智能的方法对他们真正有用。

      我唯一能想到的就是在一个我几乎没有任何专业知识的领域里做一些事情。

      但 ChatGPT 经常出错,而且当它试图 “纠正 ”被指出的问题时,又经常反复出错,以至于即便如此,我也不得不去阅读相关文档,然后不管不顾地重写。也许它能给我提供一个起点,但作用微乎其微。

      1. 我的人工智能用途清单包括

        – 将大量数据转化为少量数据,例如从文本中提取事实、翻译和查询 PDF 文件、清理数据转储,例如从复制/粘贴的 HTML 网页源中获取干净的 Markdown 表格等(在我看来,当你反其道而行之,试图将一个小提示转化为大量数据时,往往会出错)。

        – 创建表示短暂数据的插图(例如我的每日天气预报插图,即使它生成的数据不是超级有用,我还是喜欢每天看:https://github.com/blixt/sol-mate-eink)

        – 使用 Cursor 执行繁琐的编码任务,但我知道最终结果应该是什么样子(因此我可以花很少的精力来验证它)–它有 80% 的成功率,我认为它节省了时间,但并不完美

        – 探索我不熟悉的主题(我在反复核实事实、学习法律知识、回答谷歌搜索不到的随机问题等过程中广泛使用了 o3)–o3 善于提供资料来源,因此我可以反复核实重要的事情

        除此之外,人工智能对我来说也是一种娱乐方式,比如使用实时语音聊天或视频/图像生成来探索随机想法,看看会产生什么。或者把我丑陋的草图变成更漂亮的图画,等等。

  11. 我总是发现自己很擅长上网/搜索。或者提问:比如给专家或同事发邮件。我善于浓缩我想问的问题,也善于知道他们可能误解了什么,或者他们可能有什么后续问题,以节省来回奔波的时间。谷歌上的相应功能是预测我可能看到的内容,并为它们添加负面搜索词。

    但是,我认为这也是我们中的一些人认为 ChatGPT 不佳的原因:以这种方式提问可以引导人类或搜索引擎,但却会让 ChatGPT 产生更糟糕的答案(!)。

    如果你说:“X 会有什么问题? 我很确定不是我已经排除的 Y 或 Z,那会不会是 Q 或者 W”?那么 ChatGPT 和其他语言模型就会迅速强化你的想法,而不是提出质疑。它宁可给你一个错误的理由来证明你是对的,也不会给你提供额外的问题,或者挑战你的假设。如果大语言模型(LLMs)能够克服废话问题,那就好多了。拥有自信并能够表达出来是非常宝贵的。但不知何故,我怀疑这是否可能–如果可能,他们早就这样做了,因为这是他们的杀手锏。所以,我担心大语言模型(LLM)在某种程度上是无法实现的?如果是这样的话,标题就是正确的。

  12. 背景是教育中的人工智能。文章认为,人工智能在教育领域的应用只是一个噱头,真正的学习需要时间、关怀,以及愿意一起完成艰巨工作的人类的存在。

    我并不质疑学习需要什么,但我也不排除人工智能在其中的作用。我们所拥有的几乎就是《钻石时代》中的 “少妇入门”。我们要做的就是提出正确的问题。如果说教育应该教我们如何使用好这些新工具的话。

    有趣的是,它还反驳了人工智能的使用是不可避免的这一观点。我听到的唯一争论是 “何时”,而不是 “是否”。

  13. > 从铁路到电视再到人工智能,“不可避免 ”的说法对技术炒作周期至关重要。

    你知道吗?你知道的。我们还有很多铁路,电视也有过不错的发展。因此,如果把人工智能与这些模式相比较,那么我对人工智能的 “炒作周期 ”将是一个坏消息。

  14. 对于刺猬评测来说,这显得异常肤浅。我以为我们已经基本摆脱了这种感伤的、“我无法获得好的产出,因此没有人可以 ”式的文章–更不用说水资源利用的论点了!他们也发表过关于大语言模型(LLMs)的更好的文章:见第 23 期秋季刊物《语言机械》(Language Machinery) [1] 。

    [1] https://hedgehogreview.com/issues/markets-and-the-good/artic

  15. 有些公司雇用大语言模型(LLMs)做浅层次的事情可能会省钱。其他公司则可能不会。另外,大语言模型(LLM)并不都是人工智能。人工智能是一个宽泛的领域,有许多模型和应用已经在我们的生活中无处不在,但对普通大众来说却不那么具有革命性的市场价值,比如垃圾邮件过滤器。人工智能本身不是噱头。有些用户就是。

    附注:想想看,当对某件事情进行巨额投资时,人们会不惜一切代价看到回报,包括付钱给其他人进行炒作。

  16. 就像人们在工作中做的 90% 的事情一样。它们只是噱头,没有任何作用。只是制造噪音,制造词汇。

  17. 如果有人对人工智能与学习的关系感兴趣,我认为德里克(Veritasium)在最近的演讲中提出了迄今为止最好的看法:https://www.youtube.com/watch?v=0xS68sl2D70。

    与主贴中的悲观态度相比,它要平衡得多。

  18. 正如伍迪-艾伦所说: ChatGPT 是一款无意义的自动完成工具,但就无意义的自动完成工具而言,它已经非常不错了。

  19. 看到我不是唯一一个无法让大语言模型(LLMs) 说出有价值的话的人,我感到很新鲜。我试过好几次,但都是 “你的质疑是对的。我实际上什么都没做,你要求我做的我都没做。这里还有一些垃圾!”这样的循环很快就过时了。

    这让我不禁怀疑,到底是其他人在自欺欺人,还是我拿错了。

    1. 我用大语言模型(LLMs)检查我正在研究的研究生水平数学和物理问题的解决方案。我能百分之百相信他们的最终结果吗?当然不能,但我对这个领域有足够的了解,可以判断他们是否发现了我的解法中的错误。他们做得很好,多次发现我推理中的错误。

      我还用它们来完成各种编码任务,它们与代理框架一起,经常在 1-2 分钟内完成重构或小功能实现,而这原本需要我花费 10-20 分钟。总体而言,它们可能将我的开发效率提高了 2-3 倍,当我使用不太熟悉或有一段时间没有使用的技术栈时,提高的幅度更大。而我已经做了近 30 年的工程师。

      所以,我认为你只是用错了。

      1. 我自己就能写完这些。我使用它的目的完全相同(除了我不读物理本科,只读数学),结果也一样。

        它对头脑风暴也很有用:与人工智能对话有助于完善你的想法。它可能不会给你带来任何创新的想法,只是对主流想法的调查,但它是思考问题的一个很好的开始。

      2. 我认为这是关键所在。如果你遇到的问题是,产生一个似是而非的答案很慢,但检查答案是否正确却很快(写一个 shell 脚本、解一个方程、为一首歌编一段歌词),那么你就拥有了一个很好的工具。这就是首因效应类问题。认识到自己有这样的问题,并在问题出现时去找大语言模型(LLM) 是关键。

        但如果您没有这类问题呢?是的,大语言模型(LLM)对解决上述问题很有用。但是,对于许多问题,如果你要求一个解决方案,你得到的只是一个建议方案,而这个方案需要很长时间来验证。这意味着:除非你有几分把握它能解决问题,否则就不要去做。你需要估算出一些可信度。大语言模型(LLM)在这方面毫无用处。作为一名开发人员,我发现我的问题很少属于第一类,更多时候属于第二类。

        是的,这是 “用错了”。这是在做他们苦苦挣扎的事情。但这也是我的问题所在。当你遇到一个难题,而你又要花一个小时上网搜索或花一个小时聊天来权衡时,你很难克制自己。但我经常在几个小时后后悔选择 ChatGPT 路线。

    2. 我觉得这已经开始改变了。

      我是一个人工智能怀疑论者(一般不理会大多数人工智能公告)。我认为它根本不会取代 SWE。

      我一直在向双子座和 GPT 提出同样的问题,我想说,大约到 8 个月前,它们都一样糟糕,基本上毫无用处。

      不过,最近双子座明显好转了,再也没有出现过幻觉。

      我没有让它为我编写任何代码。相反,我把双子座当作{{subject}}上的 10+ YoE。

      作为一名平台工程师,我的研究课题非常广泛,所以有一只橡皮鸭几乎可以研究任何课题,这非常有用。

      我不使用 copilot 或任何其他人工智能。所以我无法将它与这些进行比较。

      1. YoE 的意思是 “多年经验”,有兴趣的人可以查一下。我不得不查了一下,也许我可以为不同的我节省一些时间。

    3. 我主要用它来代替搜索引擎和探索,主要是针对我从头开始学习的科目,我还没有很好地掌握官方文档和好的关键词。它可以与传统搜索引擎中的指南搜索相媲美,但在搜索引擎优化泛滥的今天,这很容易被打败。

      它的质量似乎在不同的主题之间有很大的差异,但令人讨厌的是,它以统一的信心来展示自己。

      1. 我讨厌这种自信谄媚的胡言乱语。这种工具的文化渊源显而易见。

        如果你还没有这样做,我建议你一定不要忘记,每隔三五次提示,就抛出一句话: “不要胡搅蛮缠“、”不要阿谀奉承“、”不要谄媚垃圾 “等等。你想怎么说就怎么说。如果人工智能说 “玩得开心!”或 “让我们开始编码吧!”,你就知道自己需要拿出鞭子了,哈哈。

        另外,“最多 3 句话介绍……”、“1 句话解释……”、“最多 1 段话介绍……”。

        对我来说,另一个改进是,你想在 Y 情况下执行 X 程序,那么你就说:”我在 Y 情况下,我正在考虑 X 程序,但我知道我遗漏了什么。告诉我我可能漏掉了什么”。或者 “列出程序 x 会导致灾难的具体场景”。

        我认为,接受该工具从根本上来说是一个笨拙的综合和总结工具,这是让它变得更有用的第一步。

        尽管如此,我还是很少使用它。我们所需要的学习革命就在约翰-霍尔特(John Holt)和那个时期的类似思想家们身上,正在等待发生,恐怕不会由下一个大的科技产品提供。

        1. 有一次,我问格罗克:”我听说人工智能的编程是为了取悦用户,这可能会导致优先考虑用户想听的话,而不是说实话。你会这么做吗?” 它说没有,并举例说明了它在回答我的问题时给出的客观答案(在它看来),然后再给予鼓励。很公平。于是我告诉它要始终优先给我客观的观点,之后它就开始把答案分成 “客观事实 ”部分和 “观点 ”部分。

          但我注意到,最近它又开始陷入 “这是个好主意 ”和 “你有这个能力 ”的欢呼声中,所以我不得不让它再次打消这种念头。如果这正是你想要的,而你又没有明确告诉它不要担心你对答案的看法,那么它肯定会倾向于确认偏见。

          我觉得它很有用,可以用来启发我的想法,但同时也要记住,我其实是在启发我自己,也是在启发由互联网上某些主流领域的言论组成的蜂巢思维。我的创造力比一般人差,所以我通过这种方式获得的想法比仅仅写日记获得的想法要多,所以这也是有价值的。

    4. 你能举例说明这种方式对你不起作用的地方吗?我很好奇,因为我从中获得了很多价值,而我的猜测是,我们对它的尝试截然不同。

      1. 不是 OP,但这里有一个例子,我已经因为它在网上和一个发誓要使用大语言模型(LLMs)[0] 的人大吵了一架,也就是说,它应该可以作为一个像样的例子:

        > 假设我站在地球上,重力突然停止对我的影响。我的轨迹会是怎样的?具体来说,随着时间的推移,我与地球的距离会是多少?

        https://chatgpt.com/c/682edff8-c540-8010-acaa-8d9b5c26733d

        它给出了示例中的 “小距离近似值”,即使我要求两小时后求解,879 千米已经与正确的 ~820 千米相差甚远。

        从几秒到几小时的近似值比较好,其实很简单:

         s(t) = sqrt((R^2 + (Vt)^2)) - R
        

        这甚至可以在图表中绘制出来,但同样–数字有偏差。

        [0] 他们的结果在不到 100 秒时就已经给出了错误百出的数字,这也是最初促使我做出回应的原因–他们甚至不符合公式。

      2. 不是 OP,但昨天我正在研究 Linux 上的 NFS 服务器调整,这通常很难通过搜索引擎找到相关信息。我让 Claude 3.5 提出一些内核设置或编译时调整的建议,结果它给了我完全是编造的答案,内核变量不存在,makefile 选项也不存在。

        因此,也许另一个大语言模型(LLM)会表现得更好,但到目前为止,它仍然主要是在浪费时间。它在总结文本和创建填充图片方面效果不错,但总的来说,我还是觉得它们不够可靠,在这两种有限的使用情况之外,我还需要关心它们。

        1. 我的意思是,你自己也回答了它为什么不工作,如果它的训练语料库中没有有用的数据,如果它能正确猜测未知信息,那才是奇迹。

          1. 你怎么能事先知道它是能回答你的问题,还是会胡编乱造呢?

          2. Linux 内核源代码和 LKML 历史中肯定有数据。答案乍一看很完美;任何不了解内核编译和补丁的人都可能会被答案中的技术细节所折服。这就是典型的大语言模型(LLM)失败模式:当搜索引擎失效时,它能提供答案(因为它们只提供最基本、最普通的 NFS 相关论坛帖子,而我却在高性能环境中寻找强大的技术信息),但这个答案并没有好到哪里去(即使指出错误之后),却能骗过大多数人….。

      3. 据我所知,我对电脑感兴趣的每一件事都没有人做过,我想除了我自己,也没有人会在意。

        我一直在读这些 “眩光 ”的东西,就像读其他的线程一样,这真的很让人沮丧,因为你会对这些东西产生疲劳,让你根本不想使用它们。你越是想让它修复输出,它就越是使用无关的代币。

        就在过去的 24 小时里,我就看到了多个模型:

        – 将 C++ 代码结构放到 Python 中 – 合成不存在的函数、库、编程语言特性 – 视频文件格式的整体特性和相关的 ffmpeg 标志不适用于图像。

        我还认为,在这个问题上你不会得到任何好的答案,很多专业人工智能人员也不会感到满意,因为当你进入这个领域时,它所做的每一件事都会以某种新的方式出错,无法轻易归类。

        这简直就是以数字方式表达信息的极限。

      4. 根据我迄今为止的经验,大多数 “人工智能怀疑论者 ”似乎都在试图抓住大语言模型(LLM) 的推理错误,或者要求它把模糊的描述一举变成精雕细琢的产品。让后者更糟糕的是,他们往往试图在第一个错误答案之后添加上下文,这往往会让大语言模型(LLM)继续出错–停止思考粉红色的大象。不,我说的是不要去想粉红大象!你为什么一直提粉红大象?我说了,我不想在文中出现粉红色的大象!

    5. 这就是为什么我喜欢 “困惑 ”强迫引用。我使用它更像是在上网搜索,而不是关心大语言模型(LLM)写了什么。大语言模型(LLM) 只是作为搜索引擎的一个有时不合理的界面。所以实际上,我更关注的是大语言模型(LLM)所训练的嵌入是否发现了不同文档之间的一些相关性,而这些相关性对于其他类型的搜索引擎来说并不明显。

      1. Perplexity 经常引用根本不存在的参考文献。最近由 perplexity 提供的例子 :

        谷歌云。(2024). “谷歌云的广播转型” https://cloud.google.com/solutions/media-entertainment/broad

        Microsoft Azure. (2024). “面向媒体和娱乐的 Azure。” https://azure.microsoft.com/en-us/solutions/media-entertainm

        IBC365. (2023). “广播工程的未来: 技能与培训。” https://www.ibc.org/tech-advances/the-future-of-broadcast-en

        广播桥 (2023). “广播工程师的云技能》 https://www.thebroadcastbridge.com/content/entry/18744/cloud

        SVG Europe. (2023). “OTT 和云: 广播的新常态。” https://www.svgeurope.org/blog/headlines/ott-and-cloud-the-n

        无论是在提供的 URL 还是在其他地方,这些资料都不存在。

        1. 是的,这就是为什么我点击链接并阅读后会觉得 “这不存在”。然后我就继续我的日常工作,就像我在谷歌上搜索那些毫无意义或不相关的链接一样。

      2. 你过分夸大了它的实用性。在传统搜索走入死胡同的主题上,你会发现人工智能引文与你可能找到的引文如出一辙,只不过经核对,它们显然被误读或歪曲了。这既危险又浪费时间。

        在热门话题上,它更有帮助,因为在这些话题上,总结本身已经是高质量和足够的了。

        1. 我不知道。我觉得它就像 Netflix 上的推荐引擎。我并不喜欢 Netflix 推荐我看的所有内容。perplexity也一样。我不同意它推荐给我的所有东西。人们不能再指望电脑替他们思考,而应该把它看作是放大自己思维的工具。

    6. 我有同样的感觉已经有一段时间了。其实我昨晚就想表达出来,不知道成功了多少:https://pid1.dev/posts/ai-skeptic/。

    7. 我用它们来嘲弄人。比如,当我想让一个讨厌的同事生气时,我就会让 chatgpt 写一个过长的、听起来非常人工智能的回复,说我想说的话。

    8. 如果你把它当作谷歌查询的压缩数据库,效果会更好。(实际上就是这样)。

      问它一些谷歌 SERP 中充满垃圾的问题,你可能会从大语言模型(LLM)中得到一个更理智的结果。

    9. 有些观点认为,人们把它们当作老虎机来使用,用它们来代替项目模板,并没有真正在做实质性的工作,或者他们在制作看起来像工作的工件,但其适用性是由其他地方决定的。如果他们生产的工作代码超出了自动完成风格的能力,那么他们要么对长期的可支持性不感兴趣,忽视了他们为让事情运转起来而必须做的所有手头工作,要么不明白经验丰富的程序员最终会达到这样的境界,即他们一开始就不会写那么多代码,而这些工具除了能以橡皮鸭的方式跳出各种想法外,并不能提供什么帮助。 但即便如此,在能力的最前沿,你还是会从不相干的模式中获得越来越多的比特,这些比特会让内部权重工作得越好,你就越能远离那些老旧的开发路径。

    10. 绝对有让大语言模型(LLM) “说出有价值的话 ”的时候。我仍在学习如何善用 LLM,但在以下一些领域,我发现了明显的优势:

      * 超级强大的词库

      传统的词库只能提取一个词,并提供替代词;而有了大语言模型(LLM),你可以提取整个短语或句子,然后说: “给我更多表达同一个意思的方法”。

      我偶尔在写作时这样做,效果很好。不,我不会盲目剪贴大语言模型(LLM)的成果,也绝不会这么做。但是,当我苦于无法用恰如其分的语言表达某句话时,大语言模型(LLM) 往往会给出一个接近的句子,我可以对其进行调整,使其完全符合我的要求。

      * 解释数学证明中的一个步骤。

      在阅读数学研究论文或教科书时,我经常会发现自己卡在证明的某一点上,看不出前一步是如何接下去的。请大语言模型(LLM)解释是解开困局的好办法。

      在这样做的时候,你绝对不能把大语言模型(LLM)所说的一切当作 “福音”。他们可能会感到困惑,说出不合逻辑的话。但是,如果你把大语言模型(LLM)的胡言乱语说出来,它往往可以自我纠正,并提出更好的解释。即使它不能完全找到正确答案,但只要它能给我足够的灵感,对我来说就足够了。

      * 超强编程语言参考手册

      我用 20 多种编程语言编写过计算机软件,却记不住每种语言的所有标准库函数、参数顺序等等。

      有时候,查阅手册或参考手册肯定会更好。但也有些时候,问大语言模型(LLM) 会更好。

    11. 我从事机器学习研究,它对于计算方程式和检查 “这个概念是否已经有一个确定的名称 ”等非常有用。

      它还非常适合编写一次性代码实验和绘图,省去了从头开始编写的时间。

      很抱歉,你只是用错了。

      1. 我个人认为你的用例和我的人工智能用例一样,都是在较大的文件中使用 “花哨的自动完成 ”功能……然而,与公司所推销的 “这几乎就是人工智能 ”的愿景相比,它的用途有限得令人失望。

        它生成的代码也很……有问题,而我只是个中等水平的开发人员。

    12. 别人不是在自欺欺人。你还没找到用途。

      我昨晚熬夜写了一封项目状态邮件。我能感觉到我的段落不够紧凑。我告诉 Cursor:把这篇文章改写小 15%。我没有逐字使用输出结果,但它给了我几个完美的改写思路,结果就是一封简洁的电子邮件。

      我让它把我采访某人后的潦草笔记总结成完整的句子。当然,我会仔细检查其完整性和正确性。不过,它能让我省去一个小时的语言疲劳。

      我用它为我孩子的多项式问题找到了更好的解释。

      我用它来生成谷歌电子表格公式,而这些公式我是绝对不想花时间自己琢磨的(“给我一个公式,从每个单元格中提取前导数,并将空白单元格视为零”)。

      其中的奥妙就在于找到一个新的用例,从而在这里或那里再节省一个小时的时间。

    13. 很久以前我就注意到,从 90% 的正确率到 95% 的正确率不是 5%,而是 2 倍的差距。当你接近 100% 时,最后几个 0.01% 的错误率的消失会带来质的变化。

      “计算机 “曾经是一项工作,无论受过何种水平的培训,拥有何种经验,人为错误率都在 1-2% 左右。重要的工作必须一式三份,并进行交叉检查。

      数字计算机的错误率大约在 10e-15 到 10e-22 之间,因此被视为几乎无懈可击。我们经常编写的代码例程中,有一万亿个步骤必须按顺序完美无瑕地执行才不会爆炸!

      现在,人工智能在犯错之前,可以在一个序列中输出 1K 到 2K 个令牌。这相当于 99.9% 到 99.95%!已经比人类强多了。

      不信?

      用纸笔(不是铅笔!)给我写一个 500 行的程序,第一次就能成功!

      我看到 Gemini Pro 2.5 以一种有用的方式做到了这一点。

      随着错误率的降低,有用的正确序列长度将达到 10K,然后是 100K,也许……谁知道呢?

      今天刚刚发布了一份关于双子座扩散的新闻稿,它可以改变已经生成的标记来纠正错误。

      错误率会下降。

      有用的输出长度会增加。

      1. 我不认为你所说的长度是个大问题。正如你所说,根据你的衡量方法,大语言模型(LLM)更擅长在较长的文本跨度内保持准确性。

        问题似乎出在智力方面。你不可能真的让它们与编译器/shell 输出形成类似代理的循环,并期望它们在完成少量步骤后还能在任务上取得有意义的进展。

        提高它们的初始无错标记长度是在解决一个错误的问题。我要的是比人类更低的初始准确度,但同样能够随着时间的推移不断迭代其解决方案。

      2. 你的期望值太低了。过去,人们在开关和打孔纸带上输入机器代码,所以他们要确保第一次就能成功。后来,人们通过在代码打印输出上做标记来进行代码审查,软件被装在盒子里发送出去,直到第二年才能更改。

        程序员 “迭代 ”出错的代码十轮直到正确为止,是谷歌推送更新后的一种现象。

        1. 我经历过,也做过。我犯了错误,不得不再试一次或纠正输入(当时还有这个选项)。

    14. 作为一个非物理学家,我发现它对我提出的物理问题的解释非常棒,比看相关视频更好,因为你可以准确地重复你不明白的地方。

      哲学问题也一样,“通过 X 哲学家的 Y 概念来解释这条新闻”。

    15. > 这让我不禁要问,到底是其他人在自欺欺人,还是我的理解有误?

      是前者。

      几年前,当大语言模型(LLMs)风靡一时时,我对软件的新颖性相当兴奋,这种兴奋是由它们可能做什么而不是它们确实做了什么所驱动的。

      多年后的今天,经过多次迭代,这些软件最有力的支持者仍在大肆宣扬它能做什么,声音之大几乎淹没了关于它能做什么的讨论。关于它对个人有什么作用的讨论通常归结为 “它给了我不关心答案的问题的答案”,但–这种说法是多么荒谬、浪费和违背知识与推理的基本理念啊–即使是这样的说法,通常也是眨眨眼、点点头,暗示也许有一天它会给重要的问题提供答案。

    16. > 这让我不禁要问,是其他人在自欺欺人,还是我想错了。

      自从 ChatGPT 发布一周后,我就一直在想这个问题。

      我愤世嫉俗地认为,大多数人并不从事真正的工作(即根据现实情况进行客观评估的工作),因此无法看清噱头和真东西之间的区别。大多数人都在做给人留下印象的生意,而大语言模型(LLMs) 在这方面相当擅长。

      好在我们有市场,终究会把问题解决。

      1. > 好在我们有市场,最终会解决这个问题。

        不过话又说回来,市场也并非总是奖励真正的工作。

        1. 市场最终会提出一个唯一相关的问题:人们是否会为大语言模型(LLMs)的成果买单。

        2. 它是嘈杂的、有偏见的、缓慢的,但一般来说,在大多数情况下,它最终确实会奖励效果更好的东西。

      2. 有很多人只是把文字从纸上输入电脑。他们过去做过真正的工作吗?

    17. 我不这么认为。我发现廉价且有点不可靠的正式文件机器翻译有一些用处,但它对成语或粗鲁的文本不起作用,例如,大语言模型(LLM)通常会尽量避免 “说 ”一些冒犯萨德家族或白宫的话,所以我需要推动它们做我想做的事情。有时,我也会 “一次性 ”制作 HTML 脚手架,因为我不擅长 Tailwind,而且我很少保存单个文件的模板,它们最后都堆在了非结构化的文件中。

      有些人似乎把它们当作常见编程模式的数据库,但这是我已经拥有的东西,我自己制作了许多编程语言的数百个脚手架,还出于兴趣或需要收集了数百个 FOSS 和非 FOSS 的 git 仓库。如果我正在阅读某个主题的资料,为实现或实验做准备,我通常也会去看一些公开的远程 repo,这主要是因为当我问一个大语言模型(LLM)时,代码通常会有缺陷和不连贯的地方,而当我看一些已经在某个地方投入生产的东西时,它正在运行,而且我也可以从中学习。

      不过,我甚至很少使用集成开发环境的自动完成功能来浏览库方法等,部分原因是我要么阅读了相关的库代码,要么选择了一个有良好文档的库,因为它能告诉我更多关于预期使用模式和陷阱的信息。

    18. 我也曾坐在钢琴前敲打琴键,但却弹不出有价值的音乐。这一定是因为钢琴是一种糟糕的乐器。/s

      1. > 大多数人不做真正的工作(即根据现实情况进行客观评价的工作),因此无法分辨噱头与真品之间的区别

        不,不,你必须意识到,大多数钢琴家并不创作真正的音乐!

  20. 人工智能要想发挥作用,就需要聪明的人类来完善它的知识库。

    教育者的工作(就像真正的老师)应该是帮助人们(关键)进步,成为更聪明的人类。

    应对进步。

  21. > 在得到她的反馈后,我终于问 ChatGPT,生成式人工智能是否可以被视为倪匡意义上的噱头。我没有仔细看它的回答。每当看到电脑屏幕上层层叠叠的文字,我都会有一种沉甸甸的感觉。我真的有必要读这个吗?

    作者知道如果他想的话,可以在提示中加上 “简明扼要 ”吗?

    我同意作者的观点,整件事都很有挑战性。坦率地说,我不愿意做现在的年轻人–如此多的信息,如此多的选择,如此多的成功秘诀,让你觉得自己糟透了,如此容易什么都学不到,如此多的 “无意义 ”的纪律和努力的感觉,如此大的距离才能在某件事情上出类拔萃–仅仅总结现有的途径本身就是一项工程。

    总之,我们已经没有退路了。我们现在所看到的最佳模式将很快被更好的模式所取代,而且这种变化只会随着时间的推移而加速。我仍然很乐观–我认为我们会在这个全新的现实中找到快乐的方式。

    我喜欢现在的工作环境–从商业创意到 PoC 的时间大大缩短了,赢得业务比以往任何时候都容易(不知道能持续多久,但这就是今天),代理编码在文档、测试、查找高于线程/类型检查程序的中等明显错误方面帮助很大–这部分也很了不起。我们将继续专注于它目前擅长的低强度/高价值任务,并不断扩展它。

    同时,我们都知道它的发展方向,这也让我感到不安。

    我想我没有什么实质性的补充–只是建议大家尽量享受这段旅程,放轻松,并牢记同事们的福祉。使用它有一个甜蜜点–不要过度使用它(不要在它挣扎的地方与它争斗),也不要使用不足(不要说所有的它都是狗屎,你永远不会碰它),不要滥用它(不要在不知道你在推动什么的情况下将大语言模型(LLM)输出给其他人审查)。

  22. 很多人对大多数事情都持否定态度… 我一直都很好奇,我喜欢学习技术。作为一名独立英语教师,我每天都在使用 ChatGPT;作为一名摄影师、作家和平面设计师,我每天都在使用 ChatGPT。我迫不及待地想看到下一个大事件。顺便说一下,我今年 62 岁… 是的,我是个潮人!

  23. 微处理器只是个噱头,与大型机相比,它们只是玩具。

  24. 绝大多数人都不太会使用大语言模型(LLM),这是一项新兴且发展迅速的技术。

    这并不能让人工智能成为噱头。

    与此同时,我们中的许多人每天都在使用人工智能,并且有一长串人工智能彻底改变我们的工作、生产力甚至生活的方式。抱歉,我又要对一篇文章翻白眼了。

  25. 整篇文章都在引用其他演讲者的话,以突出作者想要表达的观点,在很多情况下,这样做太用力了。

    就好像作者自己没有自己的想法,借用了别人的一些句子来写这篇文章。

    我不知道这是一种什么样的写作风格。

    如果你是在写观点,为什么不花点力气阐述自己的想法,或者最起码提供作者所依赖的其他人的观点正确的理由呢?

    1. 他可能用了大语言模型(LLM) 😀

  26. > 但看看人们究竟把这一奇迹用在了什么地方:脑洞大开的书籍和视频、充满骗局的广告、精致但枯燥的家庭作业论文。在我参加的研讨会上,另一位演讲者说,他用人工智能来帮助自己决定当天早上给孩子吃什么早餐。

    最后一个例子其实是最有趣的!作文就作文吧,笨或懒的孩子都会在家庭作业上作弊,学校早就需要比重复性作文更好的教育孩子的方式,但与此同时,只要使用课内作文或考试就可以了。不过,尽管各种人文学科的教授都在担心,但人们并没有真的把脑残的书籍和视频当作好奇心以外的东西来制作。

    人工智能最有趣的部分,我猜想也是最主要的实际用例,就是其他一切。

    1. 我喜欢用 ChatGPT 进行创意烹饪。

      在我的露营车里,在沙漠的某个地方,我有时资源有限。比如一罐豆子、一些新鲜土豆、一个苹果、意大利香料等等。

      我喜欢问 ChatGPT: 听着,我有这些东西,我想制作一些有强烈鲜味的食物,你有办法吗?

      它在这方面非常擅长,结果往往令人惊叹。

      这就是它的核心功能:“感觉 ”概念之间的松散联系。意大利面加枫糖浆?是的,但前提是你必须添加一些阿拉伯香料……

      由于人工神经元网络的性质,“人工智能 ”并不智能。它不会学习智能,但会学习感觉。不是情感,而是无意识学习意义上的感觉(“我感觉到了如何骑自行车越野”)。

    2. 还有一种选择偏差,人们用人工智能做了很多事情,但你并没有注意到,因为它并不邋遢。最马虎的例子就是最明显的例子。

  27. 在字典里,如果你查 “悲观主义者 ”这个词,你会看到这篇文章作者的照片。

  28. 就目前而言,这些只是另一种类型的搜索引擎,只是提供了 “更好 ”的答案。

  29. 到底是 ChatGPT 是一个噱头,还是人们把它当成了噱头?

    作者的很多论点都可以用在 90 年代的互联网上。这是一项婴儿期的 4 年技术飞跃,为什么人们期待它成熟呢?

    人类的天性就是试图找到银弹,找到解决方案,找到问题。我看待以大语言模型(LLM)为中心的未来的方式是,将大语言模型(LLM)代理视为助手和建议者,甚至是私人顾问。你不会要求代理人为你写一篇文章,而是你自己写一篇文章,并在写作过程中考虑代理人的建议和修改意见。模式应该熟悉您的写作风格和偏好。不要把人类的懒惰归咎于 ChatGPT。

    现在流行的是每样东西都是智能的*(智能家居、智能牙刷、智能情趣用品等……)。这就是 “智能”。未来的技术可能会超越 “智能”,成为 “智能”(至少在科幻小说之外,我们还没有达到这个境界)。

    说到底,每个人都需要退一步考虑: 这只是一个工具,不是 “人工智能”,不是真的。

    问题是,世界上到处都是 “末日资本家 ”和他们的 “末日浪潮”。

    1. > 这是一项婴儿期的 4 岁技术飞跃,为什么人们期待它成熟?

      因为它的粉丝们表现得好像它已经成熟了,而这篇文章就是对这种过度热衷于工具功能的观点的回应。

      1. 我不认为人们 “表现 ”得像它很成熟。它对很多人(包括我自己)都非常有用。如果人们仅仅因为没有找到它的用途就说它没用,那是毫无意义的。

        1. 这几乎概括了一切。我发现它非常有用。其他人可能不这么认为,但话又说回来,你必须用正确的方法来使用它。向它提供上下文,尽可能具体,不要期望 100% 的准确率。有一次,我向 ChatGPT 提供了一段对话,结果它漏掉了一些我必须指出的内容。我并没有因为它漏掉了什么而说 “人工智能太烂了”: “人工智能烂透了”,它只是不够完美,但仍然非常有用。无论如何,我在 Claude 上的体验比 ChatGPT 更好。

    2. > 不要把人类的懒惰归咎于 ChatGPT

      我认为技术和进步的本质就是让人类变得懒惰。

      我们创造技术是为了减轻自身的负担。

      而大多数人工智能营销都是围绕着让你少思考、多做事来进行的。

      > 我看待以大语言模型(LLM)为中心的未来的方式是,将其视为大语言模型(LLM)代理助理和建议者、私人顾问,甚至是

      我觉得这一点非常可疑。所有名称(代理、助理、建议者)都是同义词。它们只是根据输入的信息从屏幕上显示出来的文字。我对从它们身上产生的智能表示高度怀疑,主要是因为真正的创新和洞察力似乎来自于大脑的能力,它能将某些东西抽象化,将其与其他抽象概念混为一谈,并在抽象层面找到联系,然后将其应用于手头的问题。(我想到了安德鲁-怀尔斯(Andrew Wiles)对欧拉问题的解答)。

      即使是解决问题的能力、计划能力或预测能力,也不属于互联网上的常规内容。

      例如,我可能会读到阿肯色州一位农民所做的事情,然后将其与不同领域中完全不同的事情联系起来。

      在互联网的任何内容中,我都找不到这两件事的关联。

      大多数代理系统(MCP)似乎都是一种伪确定系统,调试起来比较困难。

      1. 你说的懒惰和智力上的懒惰是两码事。想少干活和想少思考是两码事。

        > 而大多数人工智能营销都是围绕着让你少思考、多做事来进行的。

        所以是的,智力懒惰。

    3. 千禧一代的科技兄弟们大多靠 Instagram、TikTok 等噱头赚钱。

      当我看到资产管理规模达数十亿美元的风险投资公司将资金投入 FartCoin、Digital Twins 等项目时,我感到非常反感。

      潮一代风险投资人资助了真正有用的东西,如核磁共振扫描仪、谷歌、苹果电脑、基因技术(为大众带来胰岛素)。

      小资风险投资人资助的东西充其量是方便(Airbnb、Uber),但通常是噱头,如 Instagram、Tiktok。

      山姆-奥特曼就是噱头大师。

      他采用了已经存在的 GPT 模式,并将其包装成类似于 Elizer[0] 的聊天形式。

      得到了存在已久的 Neural 风格,并将其与吉卜力工作室的狂热爱好者搭配在一起。[1]

      [0]: https://en.m.wikipedia.org/wiki/ELIZA_effect

      [1]: https://en.m.wikipedia.org/wiki/Neural_style_transfer

  30. 我读了整篇文章。它完全没有新意。有些想法:

    > 但辩解者自己相信吗?战略学教授莱瑟姆在遐想的最后泄露了游戏规则。“他写道:”如果教授和管理人员继续把头埋在沙子里,那么这一切都不可能发生。所以,这终究不是不可避免的?哎呀。

    这种自以为是的 “捉弄 ”态度在整篇文章中随处可见,但这可能是最好的例子。这篇文章充斥着偷梁换柱的选择和引用的单个演员的言论,仿佛他们就代表了所有的教育工作者和决策者,这让一个显然更了解情况的人看起来很糟糕。我并不指望作者采取最慈善的立场,但如果能在思想上保持诚实就更好了。如果假装没有,或者忽视那些在教育领域应用技术进步(包括当前的人工智能)的人,他们的做法是深思熟虑的、有意义的、有益的,即使难以量化,也是愚昧的。鉴于这些人被排除在外,如果认定这些事情不可能是真的,那就是在做他嘲笑别人的那种埋头苦干的事。

    > 在得到她的反馈后,我终于问 ChatGPT,生成式人工智能是否可以被认为是 Ngai 所说的噱头。我没有仔细看它的回答。每当看到电脑屏幕上层层叠叠的文字时,我都会有一种沉甸甸的感觉。我真的有必要读这个吗?我知道我不可能找到什么真正有趣或令人惊讶的东西,而这些文字的轻松出现确实让它们变得廉价。

    这可能是作者的观点,但从这样的句子中流露出的对技术的蔑视(这种蔑视在全文中比比皆是),玷污了对他们试图提出的论点的欣赏–而我真的是在真诚地对待它。知道他们是带着如此强烈的先入为主的观念来写作的,这让我在动笔之前不得不对他们的自省产生怀疑。

    说到底,你是想让我相信你的观点,还是想让你自己相信你的观点?

    1. > 知道他们带着如此强烈的先入为主的观念进来,我在动笔之前就会条件反射地质疑他们的自省。

      >归根结底,你是想让我相信你的观点,还是想让你自己相信你的观点?

      我喜欢你在这里指出作者显然有强烈的观点,然后马上又说表达这种观点的行为可能表明他们根本不持有这种观点。

      按照这种逻辑,你是想让我们相信你不喜欢这篇文章的写法,还是想让你自己相信这一点?

      1. 我是这么做的吗?我不同意。

        相反,我希望表达的是一种感觉,即从文章一开始就能直观地感受到作者持有非常明显的立场,但却看不到他们哪怕是最微弱的尝试,也要积极主动地针对最明显–最容易–的批评来论证自己的观点,这让人觉得他们很懒惰。

        我期待的是真诚的论证,而这不是。

        1. 在历史上,善意论证从来都不需要支持一个相反的命题。“采取立场并进行论证 “就是字面上的论证。这就是论证的目的。

          其他任何东西都只是美学和个人偏好而已。

          1. 同意,这不是必需的。毕竟这是一篇论文。

            例如,黑格尔的辩证法不仅仅是一种文体上的选择–它的结构积极地塑造了意义,并允许更好的综合)。

            我不认为作者想要进行有意义的对话,他的立场很明确。

            有意义的对话–至少在我看来–包括承认任何立场的利弊。即使你认为利大于弊(这是一种主观判断),你也应该能够清楚地列举出弊端。这就是一种分析方法。

          2. 所以,概括地说,你对我的不满是,我对作者的审美标准与你的不同,而这是……错误的?我有这个权利吗?

            我是真心实意地问你的。我想更好地理解你的立场。

            1. 我认为把审美偏好与善意和恶意论证的区别混为一谈是很愚蠢的。比如说,如果你坚持要求别人在试图表达自己对某个话题的看法时,费尽心思花时间和精力让你相信他对这个话题没有看法,那就太荒谬了,其本身就近乎于恶意要求。

              另外,我最初的不满也是非常明确的。“你是在试图说服自己吗?”这表明作者并不相信自己所写的内容。而你在这里提到这一点的理由是他们写的。在这种情况下,另一个人根本不可能持有与你的审美观不符的观点,这是一种不可能的情况。这太疯狂了!

      2. 这听起来就像家长皱眉头时说的 “自我安慰的骗局”。

  31. 似乎是一篇字数很多的文章,抱怨只有正规教育才能教会你思考?

    无论如何,即使是当代的大语言模型(LLM)–即使它们在几个月后看起来还很原始–作为编写软件程序的助手已经相当有用了。它们不是噱头。作为百科全书的互动补充,它们也很有用。还有其他用途。

    这篇文章还将人工智能与大语言模型(LLM)混为一谈。如今这已经是司空见惯的错误了,所以我不会因此而指责作者。

    文章摘要:当代的大语言模型对于高高在上的文科生来说用处不大(目前还不是)。(不过,他们已经可以写出人们在实践中所做的那种论文和企业写作)。

    1. 我认为你忽略了这篇文章的全部重点。他们并不是说人工智能不能以你描述的方式发挥作用。他们是在说,太多人把人工智能当作一种捷径,去模仿学习的结果来编写语言,而忽略了学习过程中的宝贵之处。

      1. 有没有任何证据表明,现在有了人工智能,作弊的人比以前多了,还是说大家都在大惊小怪,因为作弊者改变了策略?

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注