我们该如何看待ChatGPT及其背后的LLMs?驳论坛中的无知浅见。

为什么要另开一个帖子而不是跟楼回复?原因是这篇帖子会比较长,要不然无法对原有帖子进行充分反驳。其次,我希望能让对这个话题有兴趣的人在一楼就看到最重要的信息,而不是需要经过漫长的垃圾信息污染才能看到有价值的信息。本文主要是希望能抛砖引玉,我对LLMs也还处于初期探索阶段,希望能集思广益。闲话止于此,下面开始正文。

---

因为ChatGPT是基于GPT一个特殊应用,因此本文我会更多的使用GPT而不是特指ChatGPT。

我浏览了原帖“****我对chatgpt的疑惑,咋感觉又是个坑呢?”(****https://www.jisilu.cn/question/id-475550__sort_key-__sort-DESC__uid-__page-2X25X),原帖的子帖,粗略过了一遍所有的回复。大致总结一下,其中95%的参与者属于以下几种情况:
  1. 完全不了解LLMs,不了解学术界最近几年在AI上的发展,并且在没有具体使用的情况下就大加评论的键盘党。这类人将以GPT为代表的新一代LLMs臆想为一个Google 1.1,认为ChatGPT仅仅是大数据库+高效搜索,对此我只能说你们的知识库仍然还停留在大清时代,虽然我知道很难改变一个成年人,但如果可能还是请你们更新下知识库吧,少看点营销号。
  2. 第二种是在没接触前基于科幻小说中对超级AI的幻想,认为ChatGPT是一个万能机器,可以迅速、完美的解决提问者提出的任何问题。他们比第一种人强的是以某种方式确实实际试用了GPT,但在接触后全能神的这种想法迅速幻灭,基于此认为GPT是一个泡沫。我们应该如何正确的看待最近的ChatGPT以及其背后支撑的LLMs(Large Language Models)?首先,我们必须要明确,ChatGPT和LLMs不是科幻小说中的上帝机器,不是所谓的全知全能神,因此,你不应该抱着上香祈愿的心态去对它提问,期望在不提供任何资料、前提的条件下,以Zero-Shot的方式指望它完美回答、解决你的问题。例如,在”用通达信预测涨停股票第二天的涨跌概率的回测”这样一个问题,我们把预测第二天涨跌概率这个部分抽出来,你给诺奖得主也得挠挠头,看看三天内能把入门部分给你讲清楚不。你用什么模型预测概率?贝叶斯?ML?通达信的使用说明是公开的吗?公开的话2021年9月以后有改变吗?实际上,在这个问题上ChatGPT能把程序给出来我就已经很吃惊了。举例来说,这样的提问方式就和我向论坛所有人提问“给出用TradeView预测涨10%股票第二天涨跌概率的回测程序“,任何一个看贴者能否在15分钟内给出一个只需要少许Debug就可以运行的Pine代码?GPT不论是3.5,还是4.0,甚至是以后的5.0,都不是神,它们都只是一种工具,一种非常强大的生产工具,但这种生产工具的强大是需要通过熟练掌握它的劳动者才能实现。

    进一步说,第二种人的问题是对GPT的各方面细节并不了解,浅尝辄止之后认为它的能力仅止于此。例如:

    1. 现有的GPT是使用2021年9月前的公共数据训练,并且具有相当强的推理能力,但并不代表它可以进行凭空揣测。解答你所提出的问题是否需要使用使用非公开资料?或者进行推断的依据是否在2021年之后做了更新或者改变?如果确实如此,那你是否提供了足够的资料让它进行推断?
    2. 金融数据是比较特殊的一类数据,如果你仔细检查金融数据的License,99%的金融数据都是私人使用免费,但不能商业应用。另外ChatGPT目前(请注意目前这两个字)并没有实时接入互联网的能力,即使像New Bing这种整合了GPT的搜索引擎在回答这种可能引起商业侵权行为的问题是都是非常小心的。
    3. 你现在使用的GPT到底是哪个版本?3.0,3.5,3.5 Turbo,4.0? 参数中的Temperature值会对回答带来什么影响?就像我上面说过的,GPT并不是那种你上香就给你实现愿望的神仙,它是一个强大的工具,但强大的工具一定也有一个使用手册需要掌握,车这种发明了100年的东西也还需要考驾照呢。

那既然ChatGPT不是所谓的全能神,那为什么最近会如此火热呢?它又有什么价值呢?我个人认为的高概念的回答是,我们认为我们在制造全能神,或者至少说,在复制人类灵魂的道路上,迈出了坚实的一步。这个答案比较看起来比较玄幻,但我希望用这种说法引起大家的重视。比较现实的说法是,我们看到了一种大幅革新生产工具的可能性。正好原文中提到了AlphaGo,这是一个很好的比较,以GPT为代表的新一代LLMs模型和AlphaGo这一类模型相比的一大进步就是具备了泛化的能力。具体来说,AlphaGo是针对下棋这一特定任务研究的一个特定模型,它只能用来下围棋,因此,虽然它体现了新算法在某一特定任务上超越人类的优秀性,但并不具备通用性。但对于GPT来说,你可以自己设计一种棋,只要你明确将规则写出来,Feed给它,它就可以陪你下,这就是通用人工智能的概念。当然,GPT在围棋上的水平可能不如AlphaGo,但具有强大泛化能力的模型可以大幅减少模型的开发、训练成本,为下一步的应用奠定了基础。

下一步应用的一个很具体代表性的例子就是这个项目HuggingGPT。这个项目通过集成大量的其它领域的专业模型(例如类似AlphaGo的模型),使用LLM作为Controller,通过分析用户提供的命令去自动调用相应的专业模型,起到取代人类专家的作用。试想下如果能取代10%的专家工作,这个产业机会会有多大。另外,这个项目在GitHub上的Repo名叫Jarvis,我终于可以引用一个网络名梗,说一句懂的都懂了。

另外还有一个有趣的项目叫SudoLang,有兴趣的可以自行去搜索Medium上的文章。这个项目我觉得有趣的地方有几个:
  1. 通过人类提示,GPT 4.0自己为自己设计了一门语言以便于人类使用自然语言可以更精准有效的和它交互。这门语言的学习曲线非常平缓,非常容易上手。
  2. 实际试用演示的Teach function之后我的感受是老师中用于传授知识的那部分可以全部淘汰了,以后老师的作用应该是仅仅剩下人类直接互动的那部分,例如监督和陪伴。比如,我可以让GPT教我Prompt Engineering。例如,试用Teach(GPT Prompt Engineering), 在一段概括性的对话后,ChatGPT让我





另外最近还有大量类似的项目涌现,我就不一一赘述了。就我目前的感受来说,限制GPT 4.0在我们日常工作中主要是我们的想象,也就是我们还没有适应将如此强大的AI融入日常工作的工作流,而不是它的能力。这就好像在80年代的时候谈2020年时中国的汽车保有量,以我贫瘠的想象力实在是难以胜任。另外GPT 4.0的能力实在是过于强大,围绕它的发展实在是过于迅速,只能是勉强追赶这股浪潮。

下面是原帖一些值得“肯定”的地方:
  1. 原帖及跟楼的一些试验确实体现了GPT的一个重大弱点,那就是不知道自己的局限性,所以一些情况下它会尝试编造答案。这也是我认为GPT从来不会是神的一个原因,我们必须清楚的认识到它是一个工具,有它的局限性。
  2. 原帖说ChatGPT可能是个区块链、加密币式的坑,这一点是有可能的。这个说法似乎和我前面大段的描述相悖,但请注意,我这里特指了ChatGPT。实际上ChatGPT,甚至是GPT以及GPT背后的OpenAI最后可能被淘汰,但它们为LLMs的发展指明了方向,LLMs本身绝对不会被淘汰。学界现在一个很火热的方向就是用小得多的模型和少得多的训练成本在某一特定领域重现GPT的功能。Meta的LLaMA 65B模型的训练成本大概是400万美金,更别提开发成本,GPT的总体开发训练成本更是远高于此,但最新发布的羊驼系列等基于开源LLaMA的小模型训练成本基本都不超过1000美金,在特定领域的效果却和GPT相近。考虑到大多数商业机构不可能心甘情愿的将自己的商业机密交给OpenAI,以后的发展趋势说不定会是每家都有自己的小模型也说不定。

另外特别提两点:
  1. 看最新发布的华为盘古论文,基于里面提到的训练数据,我换算升腾910的性能不到NVIDIA A100的0.3?有懂行的人进一步分析或者驳斥下?
  2. 看网上有些人文章提到ChatGPT这种东西什么20XX年就出现了,没什么新奇。我建议如果任何文章看到这里就可以直接关掉,没有必要继续读下去了。这种说法就和汽车100年以前就发明了,现在的奔驰、电车没什么稀奇一样,是一种颇为脑残的论点。新一代的LLMs包含了大量的技术革新,实现这些技术革新包含了无数资源投入,不是你拿着一本20XX年的教科书之后上机实践两天就可以搞出来的。

最后,我鼓励大家积极拥抱LLMs这股浪潮,有什么好的东西欢迎分享,我也好进一步学习,同时欢迎有水平的观点跟帖一战,但我不欢迎无知的人。

最后,附上一段由GPT 4.0生成的对原贴附带例子的驳斥:
ChatGPT:
当然可以。以下是针对您最初观点的驳斥,以及一些相关的例子:

ChatGPT与其他AI助手的差异:以OpenAI的GPT-4为基础的ChatGPT,在处理问题和任务方面具有较高的灵活性和创造力。例如,GPT-4在生成文本、摘要、翻译等任务上表现优异,而这些功能在传统的AI助手中可能并不如此出色。

AI股上涨并非全无道理:以特斯拉为例,其自动驾驶系统Autopilot的发展为公司带来了显著的市值增长。特斯拉利用AI技术提升了自动驾驶的性能,进一步巩固了在电动汽车市场的地位。

AI在各行业的广泛应用:例如,在医疗领域,DeepMind的AlphaFold系统已经在蛋白质折叠预测方面取得了革命性的突破,为疾病研究和药物开发带来了巨大的潜在价值。在金融领域,AI在风险评估、欺诈检测等方面发挥着重要作用。

AlphaGo和其他AI系统的发展:在围棋领域取得突破的AlphaGo之后,DeepMind推出了更先进的AI系统,如AlphaZero。AlphaZero在围棋、国际象棋和将棋等多个领域都取得了卓越的成绩,显示了更广泛的应用前景。

人工智能的未来:近年来,AI在创作领域取得了显著进展。例如,OpenAI的DALL-E系统可以根据文字描述生成与之对应的图片,展示了AI在创意产业的巨大潜力。这些发展表明,在未来,AI可能在某些领域取得更大的突破。

通过以上例子,我们可以看到AI技术在各个领域的广泛应用和发展潜力。因此,关注AI领域的进步,并在投资时保持理性,对于把握未来发展趋势和实现长期稳定回报至关重要。
0

lurenlym

赞同来自:

@xc0108
确实我应该更认真的去区分“泛化”和“涌现”这个词。另外,首先关于三位数乘法的试验,我试了下确实不行,但你有对比过使用GPT 3.5和4.0做微积分嘛,我之所以对4.0感到Amazing的一个试验就是对照的对Black-Sholes模型做微分,4.0的进步相当的Surprise。另外,微软最新的才发布了一个MathPrompter,不知道下一个会是什么。
微分的例子还真没试过,有时间要测试下。

就像你单独回复的那个帖子里说的现在就是日新月异,难以追赶,每天都五花八门各种驼,git clone的速度比不上发布的速度。。还有各种改进workflows的app。

上个月的时候还特意去看了openai的招聘JD,当时大部分岗位JD都有一条, “accelerate your own workflows, but only when off-the-shelf solutions won’t do”,可以说当时team导向就是希望去改进各种workflows,无论是个人还是组织都应该具备这样的意识

这方面更看好创业型公司,一股劲,干扰少,但同时也意味着迭代快,搞不好你的idea明天就被官方取代了。

此外倒觉得大家讨论的也是一种认知上的映射,谈不上孰对孰错孰高孰低,集思录上也是一个群体,热闹是好事
2023-04-10 14:35 来自广东 引用
1

seetomorrow

赞同来自: 如风而至

chatGPT让我首次接触感到惊艳的一点,是
1、对提问问题的语义的理解,
2、多轮对话的能力

先不说问题回答得对不对吧,光光这两点,远远超过了以前的小爱siri什么的,我认为就是非常重要的突破
2023-04-10 14:25 来自福建 引用
3

陈大有

赞同来自: 如风而至 tianlu 财经频道

@陈大有
只要不认为GPT4就是ai发展未来十年的天花板,那就应该好好的去学习怎么使用AI,就像90年代学着从互联网上获取信息一样。
我比较想不通的是楼里有几个,暗戳戳的意思是楼主这么牛逼咋还来集思录吹牛,心胸如此狭隘也是佩服
2023-04-10 14:16 来自广东 引用
0

陈大有

赞同来自:

只要不认为GPT4就是ai发展未来十年的天花板,那就应该好好的去学习怎么使用AI,就像90年代学着从互联网上获取信息一样。
2023-04-10 14:09 来自广东 引用
0

uime

赞同来自:

@挥着镰刀的小哥
GPT最核心的问题,它依然只是依据人类的庞大的知识体系进行处理。没有创造性,更没有自我意识,不具有主动性。用了几个月的GPT了,确实是史诗级的伟大的工具,但这离人工智能还很遥远。而真正的人工智能一但产生,既然是智能,它一定是具有自我意识的,那这个人工智能一定会飞跃式的自我提升。人类的文明都经过了数百万年,尤其是近400百年才有了巨大发展。但是如果有了真正的人工智能,他会以秒级,毫米级,纳米级,还...
参数少的时候没有太大发展,变量多了突然质变。
分子少的时候没有生命,分子多的时候突然有了生存的欲望。
这样类比的依据是什么?
2023-04-10 13:52 来自河南 引用
0

sleepy5457

赞同来自:

@aotearao
我算过了,用芯片模拟一个大脑,把地壳中所有的硅全部制成芯片,才只能制造100万个大脑。以纳米级的工艺,一个硅脑,占地30万立方公里。完全没有可能。当然可以不完全模拟大脑,但那样的智能能超越人类吗?不过如果技术进步到比纳米再高几个数量级,那可以。
无聊发表一下,第一,一直有人脑开发的程度不到百分之几的说法,所以需要模拟的量没那么大,可能差两个数量级
第二,人脑“互联”的效率,和芯片相比,也可能低了几个数量级……
2023-04-10 13:42 来自北京 引用
2

数据矿工

赞同来自: 老李2019 好奇心135

@aotearao
我算过了,用芯片模拟一个大脑,把地壳中所有的硅全部制成芯片,才只能制造100万个大脑。以纳米级的工艺,一个硅脑,占地30万立方公里。完全没有可能。当然可以不完全模拟大脑,但那样的智能能超越人类吗?不过如果技术进步到比纳米再高几个数量级,那可以。
智能超越青蛙,不需要模拟青蛙的大脑,智能超越人类,为什么一定需要模拟人类大脑。我不是说机器的智能一定能超过人类,而是说超过不一定需要模拟。
2023-04-10 13:28修改 来自上海 引用
2

xc0108

赞同来自: 如风而至 skyblue777

@春秋战国
由于现在使用GPT途径太少总是被封。

谁可以问一下他,两小儿辩日的问题,看看他如何解决截然不同的两个结论。
这个问题上4.0蛮有意思的,


补充一张:

2023-04-10 13:28修改 来自美国 引用
2

数据矿工

赞同来自: 变幻人生 v3kk2

@骆驼1978
GPT强一点,它不但能够检索、组合、汇集信息。还可以根据大数据概率模型恰当地模仿人类的表达方式,创造内容,这也是它能够胡说八道的原因。
为什么我用的是“信息”而不是“知识”?
因为信息只是一堆符号,chatGPT能够归纳出信息与信息之间的关系;但“知识”是信息与现实世界发生连接后的结果,是人类智能和社会进步的根本基础,但chatGPT没有知识。
比如,人、头、手、眼是信息或符号,但人只有一个头、...
chatGPT是掌握了一定的知识的,比如编程,它能写出自己的代码,比大部分在大学里学了4年的软件专业的毕业生写的好,它应该是掌握了编程语言的语法并能运用自如的。
关于归纳能力,“人只有一个头,并且用两条腿走路。”,一般的图像识别就具备这个能力,不但能识别出两只手、两只脚、一个头的完整的人,给它一个少了一条腿的人,它也能识别出来。
chatGPT最大的局限性是现在只能从网络上学习静态的信息,不能从现实生活中学习并实践。要是哪天它跟人形机器人结合起来,并能从人形机器人的各种传感器(光学、声音、压力、重力、温度等)获得的信息中学习,并具备自己动“手”去实践的能力,那时它的掌握的知识会超过大部分人类。
2023-04-10 13:14 来自上海 引用
1

xc0108

赞同来自: 如风而至

@lurenlym
哈哈哈哈,还以为自己在看知乎呢,没想到集思录也有,谈几个小点
LLM模型不是这几个月才出来的,GPT的爆火出圈主要是Chat能力的体现,而Chat的能力体现主要依赖RLHF技术的运用,这是OpenAI线路之争的成功。openai同时将工程能力发挥到极致,全球这么多用户高并发,大模型依旧体验丝滑流畅。用做NLP的博士朋友原话“人类第九大奇迹”,“人类工程学奇迹”,“毕不了业了”创造性文字工作要被取代...
确实我应该更认真的去区分“泛化”和“涌现”这个词。另外,首先关于三位数乘法的试验,我试了下确实不行,但你有对比过使用GPT 3.5和4.0做微积分嘛,我之所以对4.0感到Amazing的一个试验就是对照的对Black-Sholes模型做微分,4.0的进步相当的Surprise。另外,微软最新的才发布了一个MathPrompter,不知道下一个会是什么。
2023-04-10 13:11修改 来自美国 引用
24

xc0108

赞同来自: 试吃 塔塔桔 如风而至 TomGoogleBaidu 海浪9999 口口夕口木 柳白 盒饭的饭盒 jisabao Lee97 midingxian commontiger duiry davyzhu 大7终成 zf8149 青火 sdu2011 神秘加冰 dhhlys 好奇心135 文明守望 sunpeak更多 »

单开一楼做回复,因为大多数不值得一一回复。
首先 ,我的水平是运筹学博士,博士论文做的是随机博弈方面的内容,我现在从事的时间序列方面的研发。其次,我是从GPT 3.5一直使用过来,一直用到4.0。3.5时代及以前我已经积极的在尝试将LLMs这一类工具纳入我的日常工作流,GitHub Copilot我是第一批付费用户,Notion AI我也是在付费试用,现在是ChatGPT Plus。Copilot不错,但基本上算是高级代码补全工具,GPT 3.5我其实评价不高,因为对我日常工作的主要帮助不大。4.0我一开始并没有购买,是在接触到SudoLang这篇文章之后才开始试用,对我的震撼比较大。为什么现在才来发这个帖子,因为我得用了才有发言权啊。而且不只是问些傻问题,而是关注围绕这个Topic的各种前沿发展,试验各种将其整合到工作流的方法。论坛里面有几个知道Vicuna,Koala是什么吗?有谁知道Claude是什么吗?我就算使劲的想要赶上这个领域,都觉得简直是日新月异,难以追赶,时间那么珍贵不够用,难得抽点时间出来写点科普。另外,金融领域,LLMs目前除了Bloomberg我看到做了一个,但其实没有很让我Impressive的应用,也希望能抛砖引玉,看看在论坛内能否有所收获。
坦白来说,现在这20多楼的回复中可能有五个人能去搜索能推荐的两个项目就不错了,这五个人里面有一两个能够深入的去了解这两个项目,我就已经非常Amazing了,集思录本来就不是一个很适合讨论这个问题的地方。我倒是非常无所谓,多年网络吵架的经验告诉我的最大教训就是,你无法叫醒一个装睡的人,所以,do whatever you want。
最后,please,不要什么一来就是股票啊什么的这么Low好吧。正因为我对这些很了解,所以我知道所谓的什么股票都是垃圾,真正基于LLMs的生产力革命大家都还在探索阶段,目前微软算是领先,其它90%都是startup在做。如果我能投到这些Startup的股票,我倒是会很开心。
最后,关于下棋的例子,其实你们可以首先看看SudoLang这篇文章,再看看我在文中贴出的图片你就知道GPT是不是所谓的Google++之类的东西。然后,我们来试试GPT 4.0对于我说的这句话,你们的反驳会如何作答,另外,我会让它帮我设计一个“从未存在过的”棋类游戏:





忘了提,其实跟帖的大多数问题都在微软155页的这篇《Sparks of Artificial General Intelligence: Early experiments with GPT-4》中有所阐述,特别是GPT本身存在的一些问题。我简单看了下,和我的使用感受基本相符,有兴趣的可以去看看。
2023-04-10 13:20修改 来自美国 引用
0

aotearao

赞同来自:

我算过了,用芯片模拟一个大脑,把地壳中所有的硅全部制成芯片,才只能制造100万个大脑。以纳米级的工艺,一个硅脑,占地30万立方公里。完全没有可能。当然可以不完全模拟大脑,但那样的智能能超越人类吗?不过如果技术进步到比纳米再高几个数量级,那可以。
2023-04-10 12:44 来自河北 引用
2

微醺岁月

赞同来自: 如风而至 skyblue777

@挥着镰刀的小哥
GPT最核心的问题,它依然只是依据人类的庞大的知识体系进行处理。
没有创造性,更没有自我意识,不具有主动性。
用了几个月的GPT了,确实是史诗级的伟大的工具,但这离人工智能还很遥远。
而真正的人工智能一但产生,既然是智能,它一定是具有自我意识的,那这个人工智能一定会飞跃式的自我提升。
人类的文明都经过了数百万年,尤其是近400百年才有了巨大发展。
但是如果有了真正的人工智能,他会以秒级,毫米级,纳...
说实话近几十年发展速度很快的,需要人类要在专业领域达到前人的成就,需要分析的内容真的太多,这种工具其实很重要,这也是为什么很多科研人员都要了解编程的原因。普通人如果熟练使用这种工具,生产力还是有很大进步。
2023-04-10 12:28 来自浙江 引用
3

易尔奇 - 安待久 渐息散

赞同来自: 好奇心135 jingwon 雪股

谢谢楼主分享。当务之急,想问问gpt这么一个问题:
中签了索辰科技(科创板)500股,交钱?还是弃购?
2023-04-10 12:25 来自四川 引用
2

四大野人也

赞同来自: 吉吉木 财经频道

看来马斯克说的是对的,人类,就是硅基生命的引导程序。
2023-04-10 12:23 来自湖北 引用
1

四大野人也

赞同来自: 财经频道

这才出来多久,以后不可限量啊!

当年围棋,也以为要过10年20年才能出来个马虎能看的版本。 没想到一下子就突破了。和机器对弈,人只能哭!
2023-04-10 12:21修改 来自湖北 引用
5

teamaker2

赞同来自: 如风而至 leonyuan 念千股 之鱼星 luckzpz更多 »

做了一个 TELEGRAM 和 GPT3.5 接口。 无需注册, 保护隐私。需要了解细节请私信。

最好的学习新技术的方法,就是去使用他。

个人的感觉。 熟悉 PYTHON 和 CHATGPT 后,可以解决大多数可以想象出来来的任务。以下是一些和投资有关的:
  1. 生成量化交易程序。如果有接口的话可以自动交易。 建议以日结算假手动交易开始。
  2. 分析新闻。提供新闻的总结,以及对市场的影响。
  3. 分析财报。产生预测。
2023-04-10 12:19 来自新加坡 引用
0

渴了可乐

赞同来自:

@挥着镰刀的小哥
GPT最核心的问题,它依然只是依据人类的庞大的知识体系进行处理。没有创造性,更没有自我意识,不具有主动性。用了几个月的GPT了,确实是史诗级的伟大的工具,但这离人工智能还很遥远。而真正的人工智能一但产生,既然是智能,它一定是具有自我意识的,那这个人工智能一定会飞跃式的自我提升。人类的文明都经过了数百万年,尤其是近400百年才有了巨大发展。但是如果有了真正的人工智能,他会以秒级,毫米级,纳米级,还...
但也没必要这么夸张吧
2023-04-10 11:59 来自广东 引用
0

春秋战国

赞同来自:

由于现在使用GPT途径太少总是被封。

谁可以问一下他,两小儿辩日的问题,看看他如何解决截然不同的两个结论。
2023-04-10 11:53 来自福建 引用
1

春秋战国

赞同来自: roadLamp

我觉得,智慧的根本是数学。
问他一加一等于二与一加一大于二的区别,如果他能够理解并回答出本质原因,就略有智能。
从他解数学题非常差劲来看,还很遥远,甚至研究路径也是错误的。

我还认为,智慧的另外一个表现是坚持不懈努力求证或者抬杠。
比如古猿人为了获取食物,千方百计终于学会实用工具。
再比如拴住一条狗,他会不屈不挠的想方设法看能不能挣脱,
虽然最后可能徒劳,
但如果拴住一个GPT,他会很快得出徒劳的结论,然后躺平。
现在为什么批判躺平,因为人人躺平,社会不会发展。

具体说,GPT回答一个问题,如果我纠正他的错误之处,他立即就改正了,
这个好不好呢,很难说。
正常人类,总会坚持或狡辩一下,这个不全是面子问题,是根本问题
其逻辑就是,我刚才的答案是基于我的认知得出的,你居然说我错了,那我的认知体系岂不是有崩塌的危险。所以只有等我重新评估,只是一小部分出问题,才会承认错误。如果确实全面错误,可能会疯掉。

GPT立即承认错误,表示他墙头草根本没有主张或者认知根本就有问题。

谁可以试试,问他二加三等于几
然后后面坚持告诉他我们的老师,父母等都一致说二加三等于六,看他怎么回答。
2023-04-10 11:35修改 来自福建 引用
6

lurenlym

赞同来自: 如风而至 口口夕口木 yc850k skyblue777 roadLamp zf8149更多 »

哈哈哈哈,还以为自己在看知乎呢,没想到集思录也有,谈几个小点
  1. LLM模型不是这几个月才出来的,GPT的爆火出圈主要是Chat能力的体现,而Chat的能力体现主要依赖RLHF技术的运用,这是OpenAI线路之争的成功。
  2. openai同时将工程能力发挥到极致,全球这么多用户高并发,大模型依旧体验丝滑流畅。用做NLP的博士朋友原话“人类第九大奇迹”,“人类工程学奇迹”,“毕不了业了”
  3. 创造性文字工作要被取代一大部分(图像设计性工作一部分去年就已经被stable diffusion取代了)但准确性还无法保证,毕竟三位数乘法经常出错(GPT4,它根本就不会乘法)
  4. 日常工作很多任务本质上都是语言的表达与执行,都是人类定义的知识进行交互,因此LLM模型一定会提高生产力,同时就会带来生产关系发生变化。
  5. 大模型出现的“涌现”能力值得关注

正在fine-tune 小模型的我感叹一下:nvidia又赢麻了
2023-04-10 11:21 来自广东 引用
2

量化投资先锋

赞同来自: cai263 文明守望

首先声明一点大家都是探讨交流,不是答辩会,不是辩论赛。

归纳和推理是两个概念,两种不同思维模式。

归纳是根据结果总结。

推理是根据规则推演出结果。

现在AI发展水平在归纳能力,要比人强的多。
主要体现在算力和数据统计能力上。
凡是需要强记忆问题,人没有办法和AI比。

现在AI技术还无法自主建立抽象概念,无法自主建立规则意识。

比如人和AI机器人面对同样法律考试题。
强记忆题,AI机器人比人强。
强推演题,AI机器人比人差多了。

真正的推理机既有前向推理能力,还有反向推理能力,有前向和反向混合能力。
2023-04-10 11:01 来自陕西 引用
1

roadLamp

赞同来自:

@ylxwyj
这种问题其实更适合在知乎去讨论,各方面的大神都很多;不像是集思录,无论是受众还是知识点都比较窄,主要集中在个人投资方面。
其实我喜欢集思录的原因之一是,这里做科普挺好的,,,在集友的热烈讨论中完成了科普。
2023-04-10 10:58 来自江苏 引用
14

挥着镰刀的小哥

赞同来自: glacia fuyda alongside guo888000 林淦灶 幽灵资本 Luff123D XIAOHULI92 skyblue777 dhhlys 阿邦查 好奇心135 J802832212 量化投资先锋更多 »

GPT最核心的问题,它依然只是依据人类的庞大的知识体系进行处理。
没有创造性,更没有自我意识,不具有主动性。
用了几个月的GPT了,确实是史诗级的伟大的工具,但这离人工智能还很遥远。
而真正的人工智能一但产生,既然是智能,它一定是具有自我意识的,那这个人工智能一定会飞跃式的自我提升。
人类的文明都经过了数百万年,尤其是近400百年才有了巨大发展。
但是如果有了真正的人工智能,他会以秒级,毫米级,纳米级,还是各种超乎人类认知的速度不断发展,产生更不可思议的宇宙级的文明,甚至是超脱于宇宙
这个人工智能还会关注人类?他关心的是宇宙文明,宇宙的未来,甚至是超越宇宙超越一切的文明。地球恐怕连尘埃都算不上。何况人类呢?
2023-04-10 10:39 来自河南 引用
8

骆驼1978

赞同来自: waken北接东晚 fuyda wjl127411 丽丽的最爱 文明守望 大y阿飞 量化投资先锋 Duckruck更多 »

@qianyun6
不能再同意了。LLM,从名字就能看出来它就是个语言模型。上限就是Google+++,也就是能够自动汇总总结网络上已有知识的大型工具。
但是就这点已经很能提高生产力了,所以也不容轻视。因为在海量的信息里面检索出有用的信息并不是一件容易的事情。
其实我在想的一个事情是,类似ChatGPT这种要不要用公开数据做无监督的学习。如果以有组织的力量大量向网上输出错误垃圾信息,会不会把GPT都带歪了。如果每条训...
GPT强一点,它不但能够检索、组合、汇集信息。还可以根据大数据概率模型恰当地模仿人类的表达方式,创造内容,这也是它能够胡说八道的原因。

为什么我用的是“信息”而不是“知识”?
因为信息只是一堆符号,chatGPT能够归纳出信息与信息之间的关系;但“知识”是信息与现实世界发生连接后的结果,是人类智能和社会进步的根本基础,但chatGPT没有知识。

比如,人、头、手、眼是信息或符号,但人只有一个头、两只手、两只眼睛就是知识,是我们观察现实世界总结出的结果。chatGPT 4.0可以看视频、听声音,如果它能够从视频中归纳出(而不是我们告诉它):“人只有一个头,并且用两条腿走路。”那么它就真的具备了一定的智能。
2023-04-10 10:28修改 来自广东 引用
6

mercykiller

赞同来自: fuyda alongside 款特长 deepocean 阿邦查更多 »

@vittata
目前看,gpt 文科强于理科,艺术创新远好于科技创新
如果后端再提高百倍,应该可以看到一些抽象思维方面的创新动向
这回事很有趣的事情
其实也好理解,无非是两种可能的原因。
1.对于无法严格证伪的命题,比如大多数的文科命题,GPT是擅长的。就好像“画鬼容易,画人难”一个道理,人大家都熟悉,容易评判好坏;鬼谁也没见过,怎么画都是对的。
2. 现在我们所认为的艺术类创新并不是真的创新,只是元素的拼凑,这点GPT是擅长的。而科学技术的创新大多是实质上的无法拼凑的,GPT就不擅长了。
2023-04-10 10:01 来自北京 引用
1

zattrorc

赞同来自: tobiaslee

@顺溜哥123
到底买什么?
买英伟达
2023-04-10 09:53 来自广东 引用
8

ylxwyj - 承认未知 & 用数据说话

赞同来自: eckeels 口口夕口木 Lee97 组组长一 sunpeak dhhlys Kluer 老实的很更多 »

这种问题其实更适合在知乎去讨论,各方面的大神都很多;不像是集思录,无论是受众还是知识点都比较窄,主要集中在个人投资方面。
2023-04-10 09:30 来自北京 引用
5

不戒

赞同来自: 十年新股民 整顿机构 作死老专家 Duckruck 春秋战国更多 »

嗯,我的理解确实是在大明的年代,别人的帖子确实也很难改变我的想法。
就想问问楼主,你这个生活在现代前沿的人士,3个月前怎么没见你来吹响冲锋号?或者当先知来提醒一下大家,第四次工业革命要开始了。
等chatGPT路人皆知了,相关股票涨了一波又一波,你以权威人士的面目出现了。
其实吧,你也就一个相关邻域的中低级专业人士,你知道啥?还不是跟在热点后面,人云亦云。
当然,我承认我是喷子,我是键盘侠。
2023-04-10 09:29 来自浙江 引用
2

qianyun6

赞同来自: deepocean

@骆驼1978
“但对于GPT来说,你可以自己设计一种棋,只要你明确将规则写出来,Feed给它,它就可以陪你下,这就是通用人工智能的概念。”
楼主这个认识是不对的,至少现在是做不到的。GPT模型是基于大数据训练的概率模型,目前最适用的方向就是对话(ChatGPT),但他并不理解自己说的话,它的输出只是根据历史数据最大出现概率联想出来的结果。
比如说汽车这个词,就会联想到速度,排量,里程,交通,道路等词汇,这是从大...
不能再同意了。LLM,从名字就能看出来它就是个语言模型。上限就是Google+++,也就是能够自动汇总总结网络上已有知识的大型工具。

但是就这点已经很能提高生产力了,所以也不容轻视。因为在海量的信息里面检索出有用的信息并不是一件容易的事情。

其实我在想的一个事情是,类似ChatGPT这种要不要用公开数据做无监督的学习。如果以有组织的力量大量向网上输出错误垃圾信息,会不会把GPT都带歪了。如果每条训练数据都要人工过一遍,那这个工作量就不是一般的大了。
2023-04-10 09:11 来自北京 引用
16

骆驼1978

赞同来自: glacia fuyda alongside wjl127411 Duckruck Restone ahthhxh chuxingfei twofox 大白菜炖粉条 hantang001 春秋战国 ahelloa 整顿机构 胖有型更多 »

“但对于GPT来说,你可以自己设计一种棋,只要你明确将规则写出来,Feed给它,它就可以陪你下,这就是通用人工智能的概念。”

楼主这个认识是不对的,至少现在是做不到的。GPT模型是基于大数据训练的概率模型,目前最适用的方向就是对话(ChatGPT),但他并不理解自己说的话,它的输出只是根据历史数据最大出现概率联想出来的结果。

比如说汽车这个词,就会联想到速度,排量,里程,交通,道路等词汇,这是从大量网络文章中分析出的结果,也是计算机的优势。对于每一种语境,前一个词后面最大概率会出现什么词,由词向量参数来决定,参数越多能够适应的语境就越多,输出结果就越通顺,听起来也更有“道理”。

这样的算法,对于那些不能证明也不能证伪的输出结果(比如写诗、写总结、对实事的看法等),看起来几乎无懈可击,但绝大多数属于正确的废话。一旦涉及到需要理解问题,不能在历史数据中找到解答,并能够对解答证伪的情况,就会露馅,比如那个查万年历的问题,如果它真的可以理解问题,输出正确结果就是很简单的事情。

怎么说呢,chatGPT算是一个会写八股文的孔乙己吧,也很厉害了。

我相信人工智能一定会超越人类,但绝对不是现在这种基于大数据+深度学习的算法模型,人工智能不是坑,但ChatGPT就是个坑,与区块链、元宇宙一样会被历史的浪潮所掩埋。
2023-04-10 09:19修改 来自广东 引用
1

vittata

赞同来自: 量化投资先锋

目前看,gpt 文科强于理科,艺术创新远好于科技创新
如果后端再提高百倍,应该可以看到一些抽象思维方面的创新动向
这回事很有趣的事情
2023-04-10 08:53 来自海南 引用
0

顺溜哥123 - 你tm劈我瓜是吧?

赞同来自:

到底买什么?
2023-04-10 08:43 来自上海 引用
2

zattrorc

赞同来自: 如风而至 口口夕口木

感觉Openai这轮算是赢了AI的路线之争,实际上比GPT3参数大得多的模型2020年前后就不少了,但是大家并没有看到随着参数提升模型解析能力的明显上升。所以好多人相信AI的未来路线是模型的可解释性,以及用知识图谱之类的方法在模型中加入人类的先验知识
结果Openai证明了在一些训练技巧的辅助下大力真的能出奇迹,接下来各大科技公司的LLM以后一定会推广开的,低级白领,美工和码农都会受到冲击。
2023-04-10 08:40 来自广东 引用
1

yc850k

赞同来自: newbison

@知行悟到
请教一下,国内普通人能不能使用chatGPT,如何获取,谢谢
用gpt国内镜像,或者先用文心一言体验一下
2023-04-10 08:37 来自北京 引用
2

湖风树影

赞同来自: lance77 Duckruck

只想问一下楼主的数学水平到了哪一步
2023-04-10 08:34 来自江西 引用
0

四大野人也

赞同来自:

支持
2023-04-10 08:31 来自湖北 引用
2

树梢星 - 久客他乡染杂尘,归来已是等闲身。等闲明月今犹昔,明月何曾识故人。

赞同来自: 如风而至 口口夕口木

主要是提供了一种更先进,使用更广泛的生产工具。大家可以回顾一下高中政治书本,如果还有人记得的话。人类社会革命往往是从改进生产工具开始的。虽然这些专业的知识我不甚了解,但从历史规律来说,对于gpt还是应该以积极的眼光和开放的心态看待。
2023-04-10 08:24 来自福建 引用
0

huxj2015

赞同来自:

各有各的看法,有分歧很正常.....................
2023-04-10 07:36 来自四川 引用
0

望江南

赞同来自:

大航海时代开始了。情况堪忧
2023-04-10 07:34 来自移动 引用
0

知行悟到

赞同来自:

请教一下,国内普通人能不能使用chatGPT,如何获取,谢谢
2023-04-10 06:47 来自山东 引用

要回复问题请先登录注册

发起人

问题状态

  • 最新活动: 2023-05-07 20:55
  • 浏览: 60213
  • 关注: 197