我们该如何看待ChatGPT及其背后的LLMs?驳论坛中的无知浅见。

为什么要另开一个帖子而不是跟楼回复?原因是这篇帖子会比较长,要不然无法对原有帖子进行充分反驳。其次,我希望能让对这个话题有兴趣的人在一楼就看到最重要的信息,而不是需要经过漫长的垃圾信息污染才能看到有价值的信息。本文主要是希望能抛砖引玉,我对LLMs也还处于初期探索阶段,希望能集思广益。闲话止于此,下面开始正文。

---

因为ChatGPT是基于GPT一个特殊应用,因此本文我会更多的使用GPT而不是特指ChatGPT。

我浏览了原帖“****我对chatgpt的疑惑,咋感觉又是个坑呢?”(****https://www.jisilu.cn/question/id-475550__sort_key-__sort-DESC__uid-__page-2X70X),原帖的子帖,粗略过了一遍所有的回复。大致总结一下,其中95%的参与者属于以下几种情况:
  1. 完全不了解LLMs,不了解学术界最近几年在AI上的发展,并且在没有具体使用的情况下就大加评论的键盘党。这类人将以GPT为代表的新一代LLMs臆想为一个Google 1.1,认为ChatGPT仅仅是大数据库+高效搜索,对此我只能说你们的知识库仍然还停留在大清时代,虽然我知道很难改变一个成年人,但如果可能还是请你们更新下知识库吧,少看点营销号。
  2. 第二种是在没接触前基于科幻小说中对超级AI的幻想,认为ChatGPT是一个万能机器,可以迅速、完美的解决提问者提出的任何问题。他们比第一种人强的是以某种方式确实实际试用了GPT,但在接触后全能神的这种想法迅速幻灭,基于此认为GPT是一个泡沫。我们应该如何正确的看待最近的ChatGPT以及其背后支撑的LLMs(Large Language Models)?首先,我们必须要明确,ChatGPT和LLMs不是科幻小说中的上帝机器,不是所谓的全知全能神,因此,你不应该抱着上香祈愿的心态去对它提问,期望在不提供任何资料、前提的条件下,以Zero-Shot的方式指望它完美回答、解决你的问题。例如,在”用通达信预测涨停股票第二天的涨跌概率的回测”这样一个问题,我们把预测第二天涨跌概率这个部分抽出来,你给诺奖得主也得挠挠头,看看三天内能把入门部分给你讲清楚不。你用什么模型预测概率?贝叶斯?ML?通达信的使用说明是公开的吗?公开的话2021年9月以后有改变吗?实际上,在这个问题上ChatGPT能把程序给出来我就已经很吃惊了。举例来说,这样的提问方式就和我向论坛所有人提问“给出用TradeView预测涨10%股票第二天涨跌概率的回测程序“,任何一个看贴者能否在15分钟内给出一个只需要少许Debug就可以运行的Pine代码?GPT不论是3.5,还是4.0,甚至是以后的5.0,都不是神,它们都只是一种工具,一种非常强大的生产工具,但这种生产工具的强大是需要通过熟练掌握它的劳动者才能实现。

    进一步说,第二种人的问题是对GPT的各方面细节并不了解,浅尝辄止之后认为它的能力仅止于此。例如:

    1. 现有的GPT是使用2021年9月前的公共数据训练,并且具有相当强的推理能力,但并不代表它可以进行凭空揣测。解答你所提出的问题是否需要使用使用非公开资料?或者进行推断的依据是否在2021年之后做了更新或者改变?如果确实如此,那你是否提供了足够的资料让它进行推断?
    2. 金融数据是比较特殊的一类数据,如果你仔细检查金融数据的License,99%的金融数据都是私人使用免费,但不能商业应用。另外ChatGPT目前(请注意目前这两个字)并没有实时接入互联网的能力,即使像New Bing这种整合了GPT的搜索引擎在回答这种可能引起商业侵权行为的问题是都是非常小心的。
    3. 你现在使用的GPT到底是哪个版本?3.0,3.5,3.5 Turbo,4.0? 参数中的Temperature值会对回答带来什么影响?就像我上面说过的,GPT并不是那种你上香就给你实现愿望的神仙,它是一个强大的工具,但强大的工具一定也有一个使用手册需要掌握,车这种发明了100年的东西也还需要考驾照呢。

那既然ChatGPT不是所谓的全能神,那为什么最近会如此火热呢?它又有什么价值呢?我个人认为的高概念的回答是,我们认为我们在制造全能神,或者至少说,在复制人类灵魂的道路上,迈出了坚实的一步。这个答案比较看起来比较玄幻,但我希望用这种说法引起大家的重视。比较现实的说法是,我们看到了一种大幅革新生产工具的可能性。正好原文中提到了AlphaGo,这是一个很好的比较,以GPT为代表的新一代LLMs模型和AlphaGo这一类模型相比的一大进步就是具备了泛化的能力。具体来说,AlphaGo是针对下棋这一特定任务研究的一个特定模型,它只能用来下围棋,因此,虽然它体现了新算法在某一特定任务上超越人类的优秀性,但并不具备通用性。但对于GPT来说,你可以自己设计一种棋,只要你明确将规则写出来,Feed给它,它就可以陪你下,这就是通用人工智能的概念。当然,GPT在围棋上的水平可能不如AlphaGo,但具有强大泛化能力的模型可以大幅减少模型的开发、训练成本,为下一步的应用奠定了基础。

下一步应用的一个很具体代表性的例子就是这个项目HuggingGPT。这个项目通过集成大量的其它领域的专业模型(例如类似AlphaGo的模型),使用LLM作为Controller,通过分析用户提供的命令去自动调用相应的专业模型,起到取代人类专家的作用。试想下如果能取代10%的专家工作,这个产业机会会有多大。另外,这个项目在GitHub上的Repo名叫Jarvis,我终于可以引用一个网络名梗,说一句懂的都懂了。

另外还有一个有趣的项目叫SudoLang,有兴趣的可以自行去搜索Medium上的文章。这个项目我觉得有趣的地方有几个:
  1. 通过人类提示,GPT 4.0自己为自己设计了一门语言以便于人类使用自然语言可以更精准有效的和它交互。这门语言的学习曲线非常平缓,非常容易上手。
  2. 实际试用演示的Teach function之后我的感受是老师中用于传授知识的那部分可以全部淘汰了,以后老师的作用应该是仅仅剩下人类直接互动的那部分,例如监督和陪伴。比如,我可以让GPT教我Prompt Engineering。例如,试用Teach(GPT Prompt Engineering), 在一段概括性的对话后,ChatGPT让我





另外最近还有大量类似的项目涌现,我就不一一赘述了。就我目前的感受来说,限制GPT 4.0在我们日常工作中主要是我们的想象,也就是我们还没有适应将如此强大的AI融入日常工作的工作流,而不是它的能力。这就好像在80年代的时候谈2020年时中国的汽车保有量,以我贫瘠的想象力实在是难以胜任。另外GPT 4.0的能力实在是过于强大,围绕它的发展实在是过于迅速,只能是勉强追赶这股浪潮。

下面是原帖一些值得“肯定”的地方:
  1. 原帖及跟楼的一些试验确实体现了GPT的一个重大弱点,那就是不知道自己的局限性,所以一些情况下它会尝试编造答案。这也是我认为GPT从来不会是神的一个原因,我们必须清楚的认识到它是一个工具,有它的局限性。
  2. 原帖说ChatGPT可能是个区块链、加密币式的坑,这一点是有可能的。这个说法似乎和我前面大段的描述相悖,但请注意,我这里特指了ChatGPT。实际上ChatGPT,甚至是GPT以及GPT背后的OpenAI最后可能被淘汰,但它们为LLMs的发展指明了方向,LLMs本身绝对不会被淘汰。学界现在一个很火热的方向就是用小得多的模型和少得多的训练成本在某一特定领域重现GPT的功能。Meta的LLaMA 65B模型的训练成本大概是400万美金,更别提开发成本,GPT的总体开发训练成本更是远高于此,但最新发布的羊驼系列等基于开源LLaMA的小模型训练成本基本都不超过1000美金,在特定领域的效果却和GPT相近。考虑到大多数商业机构不可能心甘情愿的将自己的商业机密交给OpenAI,以后的发展趋势说不定会是每家都有自己的小模型也说不定。

另外特别提两点:
  1. 看最新发布的华为盘古论文,基于里面提到的训练数据,我换算升腾910的性能不到NVIDIA A100的0.3?有懂行的人进一步分析或者驳斥下?
  2. 看网上有些人文章提到ChatGPT这种东西什么20XX年就出现了,没什么新奇。我建议如果任何文章看到这里就可以直接关掉,没有必要继续读下去了。这种说法就和汽车100年以前就发明了,现在的奔驰、电车没什么稀奇一样,是一种颇为脑残的论点。新一代的LLMs包含了大量的技术革新,实现这些技术革新包含了无数资源投入,不是你拿着一本20XX年的教科书之后上机实践两天就可以搞出来的。

最后,我鼓励大家积极拥抱LLMs这股浪潮,有什么好的东西欢迎分享,我也好进一步学习,同时欢迎有水平的观点跟帖一战,但我不欢迎无知的人。

最后,附上一段由GPT 4.0生成的对原贴附带例子的驳斥:
ChatGPT:
当然可以。以下是针对您最初观点的驳斥,以及一些相关的例子:

ChatGPT与其他AI助手的差异:以OpenAI的GPT-4为基础的ChatGPT,在处理问题和任务方面具有较高的灵活性和创造力。例如,GPT-4在生成文本、摘要、翻译等任务上表现优异,而这些功能在传统的AI助手中可能并不如此出色。

AI股上涨并非全无道理:以特斯拉为例,其自动驾驶系统Autopilot的发展为公司带来了显著的市值增长。特斯拉利用AI技术提升了自动驾驶的性能,进一步巩固了在电动汽车市场的地位。

AI在各行业的广泛应用:例如,在医疗领域,DeepMind的AlphaFold系统已经在蛋白质折叠预测方面取得了革命性的突破,为疾病研究和药物开发带来了巨大的潜在价值。在金融领域,AI在风险评估、欺诈检测等方面发挥着重要作用。

AlphaGo和其他AI系统的发展:在围棋领域取得突破的AlphaGo之后,DeepMind推出了更先进的AI系统,如AlphaZero。AlphaZero在围棋、国际象棋和将棋等多个领域都取得了卓越的成绩,显示了更广泛的应用前景。

人工智能的未来:近年来,AI在创作领域取得了显著进展。例如,OpenAI的DALL-E系统可以根据文字描述生成与之对应的图片,展示了AI在创意产业的巨大潜力。这些发展表明,在未来,AI可能在某些领域取得更大的突破。

通过以上例子,我们可以看到AI技术在各个领域的广泛应用和发展潜力。因此,关注AI领域的进步,并在投资时保持理性,对于把握未来发展趋势和实现长期稳定回报至关重要。
0

量化投资先锋

赞同来自:

白盒逻辑都有个信仰图腾,所有推论定理都来源于公理,这是基本数学常识问题。

比如欧氏几何和非欧几何, 公理是不同,推论定理也不同。

例如,A>B,B>C,我们就可以推断A>C

请问怎么用归纳法证明?

科学理论在未经证实前,叫假说。

会有很严密推导计算过程。

黑盒逻辑非常依赖采集数据,如果采集数据发生偏离,或采集数据者存在偏见的化,所得结论就会发生偏离,或者发生主观偏见,或无法挖掘因果关系问题或因果错判问题。

在一个关于肺炎风险的数据集中,我们想要预测不同肺炎病人的死亡概率,从而更好地治疗高风险的肺炎病人。最准确的模型是神经网络,AUC达到0.86,但是当我们使用基于规则的模型时,模型学习到了“如果病人带有哮喘,那么他属于低风险人群”。也就是说,带有哮喘的肺炎患者的死亡率比其他肺炎患者要低。

这个结论看起来模棱两可,违背了我们的客观认知,但深入挖掘下去,我们便会发现其中的逻辑关系:有哮喘病史的肺炎患者,由于病情的严重性,会得到更进一步的治疗,治疗的效果通常也会很好,从而降低了这类患者的死亡率。

黑盒逻辑并不是严谨的逻辑,是近似逻辑,无法进行过程测试,测试也只能进行功能测试,如果存在内在问题,很难发现。

白盒逻辑很容易进行拆解,分开测试,容易发现问题。
2023-04-13 12:44修改 来自陕西 引用
0

lurenlym

赞同来自:

@xc0108
首先,我要说的是,我非常清楚我的“无知”。正因为我非常清楚我的“无知”,所以我不会说ChatGPT就是未来或者是大家快来All In科大讯飞这种东西,因为我很知道我并不是一个预言者。这个帖子并不是要做一个预言神贴,而是通过我的各种亲身经历、试验结果来驳斥一些明显错误的结论,藉此鼓励大家勇于拥抱GPT和LLMs。这并不是什么活雷锋,而是我清楚自己的“无知”和时间有限,所以我急切的需要更多人在拥抱GP...
  1. 昨天晚上新浪的张俊林老师在知乎上发贴介绍大语言模型的涌现能力相关的探索
  2. “人不需要几十万张标记的照片”这个我也是反对的,反对的其中一点原因是就是在成长的过程中,人是不断在接收训练的,这个训练不仅仅是"教认知这张图片是xxx"这一过程,还包括在不断接收外界听觉、视觉信息,这个多模态信息是不断在训练认知的,就类似现在的大模型预训练。可能真正学会,或者“涌现”是各种感知信息融合到某个点触发了。
2023-04-13 11:05修改 来自广东 引用
3

mercykiller

赞同来自: 整顿机构 山顶晨曦

@andjsmile
兄弟,很明显你的理解落伍了。深度学习+模糊算法+大数据这套组合拳之前,是你这么理解的。
目前嘛,总结一句话:他比你还懂中文,他得出的匪夷所思的答案比你还高明。
不是套用几个专业名词就能体现深刻,搞技术的其实都清楚,多数酷炫的专业术语往往是创造出来用于发文章、拉项目、搞投资、提升溢价的。
建议你了解一下非递归数学。它们有答案,但是不存在决定答案的一般算法。
其实早在上世纪上半叶,哥德尔和图灵分别从数学上证明了:形式数学问题不存在能够判定真命题的一般算法解,也就是希尔伯特问题的不可解。这其实在一定程度上已经判定了基于算法的AI发展是一条死路。
2023-04-13 09:15 来自北京 引用
2

难得又是浮雲

赞同来自: jjmdh

@qianyun6
那人就不需要上学了,应该人人都是生而知之的圣人。另外,我只说了基于argmin(param)Loss(param; input)的AI模型以目前的资源很难超出大型搜索引擎的级别,不代表其他路线不可以。我记得之前看到过有一个方向是研究如何使用小样本量得到可靠的AI模型,不过似乎后来就没什么动静了。
上学是用新的数据进行训练啊。
过去十万年,智人的大脑没有多少物理进化,但因为训练数据发生了改变,能输出的结果已经天差地别了
2023-04-13 09:12 来自陕西 引用
0

nathansz

赞同来自:

@xc0108
首先,我要说的是,我非常清楚我的“无知”。正因为我非常清楚我的“无知”,所以我不会说ChatGPT就是未来或者是大家快来All In科大讯飞这种东西,因为我很知道我并不是一个预言者。这个帖子并不是要做一个预言神贴,而是通过我的各种亲身经历、试验结果来驳斥一些明显错误的结论,藉此鼓励大家勇于拥抱GPT和LLMs。这并不是什么活雷锋,而是我清楚自己的“无知”和时间有限,所以我急切的需要更多人在拥抱G...
很有启发。很多人类本能训练已经刻在dna遗传下来。
2023-04-13 09:00 来自广东 引用
0

bigbear2046 - 无非想要明白些道理,遇见些有趣的人或事

赞同来自:

@量化投资先锋
遗传算法,基因发生变异原本就是随机小概率突变的。变异过程中,基因可能越变越好,也可能变越差。劣质基因会被环境淘汰,优秀基因会被保留。AI只停留在学习模仿阶段,并没有看到A有自我进化的能力,是无法超越人类的。生物存在延续,都有特有智慧存在。许多优化算法,都来自生物的生存模式。神经网络也是模拟人脑。机器再强大,也无法超越人类的天才,超越都是普通人。比如爱因斯坦发现相对论,在此之前,没有任何数据、算法...
人脑严格来说并没有演绎法,所谓的演绎法也是归纳出理论后的应用而已,今天的演绎法只是昨天归纳法的产物而已,也就是现在的白盒逻辑本质上都是来自于过去人类对于黑盒的探索罢了
2023-04-13 09:06修改 来自上海 引用
1

qianyun6

赞同来自:

@难得又是浮雲
有没有考虑过一个可能,人脑是预训练好的模型?
那人就不需要上学了,应该人人都是生而知之的圣人。

另外,我只说了基于argmin(param)Loss(param; input)的AI模型以目前的资源很难超出大型搜索引擎的级别,不代表其他路线不可以。我记得之前看到过有一个方向是研究如何使用小样本量得到可靠的AI模型,不过似乎后来就没什么动静了。
2023-04-13 08:17 来自北京 引用
2

zzzer

赞同来自: Decadef20

人年纪大了自然的排斥新事物,所谓40不惑也就是思维比较固化了,投资论坛对计算机学科了解深入的有多少
2023-04-13 07:32 来自广东 引用
3

xc0108

赞同来自: 文明守望 commontiger

@aop1234
今日看了一篇朱松纯教授的文章《赤壁赋启发人工智能?》,很有意思,和集思录的朋友共享。文章很长,仔细读完,收益匪浅。
《赤壁赋》启发人工智能?
这种文章一般我是看了第一段就关了,限于你推荐,拉完了全文。评价就是,这是在讲啥啊。可能等我58岁可以再来读读试试。
2023-04-13 01:12 来自美国 引用
1

xc0108

赞同来自: 好奇心135

首先,我要说的是,我非常清楚我的“无知”。正因为我非常清楚我的“无知”,所以我不会说ChatGPT就是未来或者是大家快来All In科大讯飞这种东西,因为我很知道我并不是一个预言者。这个帖子并不是要做一个预言神贴,而是通过我的各种亲身经历、试验结果来驳斥一些明显错误的结论,藉此鼓励大家勇于拥抱GPT和LLMs。这并不是什么活雷锋,而是我清楚自己的“无知”和时间有限,所以我急切的需要更多人在拥抱GPT后分享它们的结果,来扩大我的知识圈,选择集思录是各种机缘巧合的结果。对未知的探索永远是我前进的第一原动力。
其次,我不会因为每个人知识圈的大小而鄙视谁,因为知识圈都有个扩展的过程,但对站在自己知识圈内随意评论知识圈以外的事物,特别是在有人指出你可以如何扩展自己知识圈的时候的却忽视这一点的键论家, 我一般会选择忽视并过滤掉这些信息。
很多回复里谈到的人不需要几十万张标记的照片来学习等论断,实际上忽视了一个重要问题:人类的进化史。人类花了差不多200万年进化到可以产生先进文明,之后又花了差不多2万年进化到近代文明,我们的“标记训练”时间实际上远不止体现在个体上的十几年上学时间。这方面有很多研究,有兴趣的自己可以去找找。
现在对为什么参数大到一定程度之后LLMs表现出如此强悍能力的研究应该都属于进行中,没有很权威的结论,如果谁知道有请分享给我,我很乐意学习。
后面的很多的讨论我认为不过是知识圈内和外的对话。如果我以后有空会做个东西把内容都抓下来,用GPT总结和对话试试。
最后,不出所料的没有什么人关注““Generative Agents: Interactive Simulacra of Human Behavior.”这个研究实际上AutoGPT-AgentGPT这个框架走下来的,也有助于观察这个体系的极限,开发的框架以后可能也可以应用在别的地方,相当有趣,远远不仅是一个模拟沙盒游戏。
2023-04-13 01:05 来自美国 引用
1

aop1234

赞同来自: 江城车贩子

今日看了一篇朱松纯教授的文章《赤壁赋启发人工智能?》,很有意思,和集思录的朋友共享。文章很长,仔细读完,收益匪浅。
《赤壁赋》启发人工智能?
2023-04-12 22:43 来自湖北 引用
0

alongside - 为无为,事无事,味无味

赞同来自:

@骆驼1978
如果有上帝设计并训练了人脑,那么上帝又是谁设计的呢?这样就没有了尽头。如果上帝不需要被设计,那么比他低级的人类也没必要一定被设计。所以,只能认为人脑是自由演化的结果。
人类确实设计并且训练了人工智能,但是人类不是上帝,所以也有可能“上帝”没有人类聪明,啊啊啊哦哦哦鹅鹅鹅。。。 哈哈
2023-04-12 22:05 来自江苏 引用
0

量化投资先锋

赞同来自:

@qianyun6

演绎法需要大量样本数据吗?
2023-04-12 20:45 来自陕西 引用
0

山顶晨曦

赞同来自:

@四大野人也
也许 我们就是造物主这么训练出来的
但是你不知道你自己是怎么来的吗 对于你自己而言 造物主何在
2023-04-12 20:35 来自云南 引用
0

四大野人也

赞同来自:

人脑几乎必然是训练好的
2023-04-12 19:53 来自湖北 引用
5

骆驼1978

赞同来自: ahelloa skyblue777 幸运钱 海浪9999 jjmdh更多 »

@难得又是浮雲
有没有考虑过一个可能,人脑是预训练好的模型?
如果有上帝设计并训练了人脑,那么上帝又是谁设计的呢?这样就没有了尽头。如果上帝不需要被设计,那么比他低级的人类也没必要一定被设计。

所以,只能认为人脑是自由演化的结果。
2023-04-12 19:21 来自广东 引用
0

难得又是浮雲

赞同来自:

@qianyun6
从量子力学的角度,随机性是无处不在的。我的看法是,人的智能模式可能不是目前机器学习的argmin(param)Loss(param; input)的形式。否则解释不了为什么人类学习出规律需要的样本数远远小于AI。所以只要是运行在argmin(param)Loss(param; input)的模型,我是无论如何不相信它能脱离Google+++的层级的。
有没有考虑过一个可能,人脑是预训练好的模型?
2023-04-12 18:09 来自陕西 引用
8

量化投资先锋

赞同来自: glacia 大白菜炖粉条 泛舟Rain 总是人生Guang 山顶晨曦 Lee97 ylxwyj更多 »

遗传算法,基因发生变异原本就是随机小概率突变的。

变异过程中,基因可能越变越好,也可能变越差。

劣质基因会被环境淘汰,优秀基因会被保留。

AI只停留在学习模仿阶段,并没有看到A有自我进化的能力,是无法超越人类的。

生物存在延续,都有特有智慧存在。

许多优化算法,都来自生物的生存模式。

神经网络也是模拟人脑。

机器再强大,也无法超越人类的天才,超越都是普通人。

比如爱因斯坦发现相对论,在此之前,没有任何数据、算法支撑,完全颠覆所有人的认知。

AI在理论上并没有什么颠覆性发现。

必须承认在技术上AI有了长足进步,算力和记忆力已经远远超过人脑。

人脑并不只有归纳法,还有演绎法。

神经网络本质就是无限拟合函数,来映射输入和输出关系。属于黑盒逻辑,并不清楚输入和输出内在逻辑关系。

黑盒逻辑最终会是什么结果,没有人说的清楚。只要有足够算力,足够数据,就可以无限逼近目标函数。
学习算法改进,只是加快逼近目标函数。

演绎法的输入和输出关系是透明的,有清晰的逻辑传导链条,属于白盒逻辑,可以清楚知道内在逻辑关系。
2023-04-12 17:33 来自陕西 引用
0

四大野人也

赞同来自:

也许 我们就是造物主这么训练出来的
2023-04-12 16:37 来自湖北 引用
0

骆驼1978

赞同来自:

@nathansz
并不全是。小孩知道这只是橘猫,并不代表能认识另一只狸花猫,小孩也需要获取新的知识来进行判断。
一段学习后,小孩可以推理出有四只腿,脸上有胡须的,有花纹的就是猫。如果那是豹子,但小孩从不知道豹子的情况下,还是会认为是猫。
综上,现在机器学习囊括了人类各种认知方式,每一段时间都有一种机器学习完成突破,目前是神经网络领先,但是未来机器会调教得跟人一样。
并不是这样,简单几笔抽象画也能认出是猫,人认识事物主要还是依靠轮廓与布局这种高信息量数据,颜色、纹理、姿态都是次要的。
2023-04-12 15:46 来自广东 引用
1

骆驼1978

赞同来自: 作死老专家

@andjsmile
兄弟,很明显你的理解落伍了。深度学习+模糊算法+大数据这套组合拳之前,是你这么理解的。
目前嘛,总结一句话:他比你还懂中文,他得出的匪夷所思的答案比你还高明。
它不太可能得出匪夷所思答案,它的算法模型决定了,就是个和稀泥的家伙,只会得出网络上最流行、最被大众认可的答案。

所以大家觉得它很厉害。
2023-04-12 15:43 来自广东 引用
2

ylxwyj - 承认未知 & 用数据说话

赞同来自: 难得又是浮雲 量化投资先锋

@骆驼1978
所以,只能承认世界是随机的、无中生有的,AI想要超越人类也必须具备这种随机性和无中生有的能力。
这个不是哈。你可以去了解一下圣塔菲人工股票市场的机制,就会知道,随机性和突变(涌现),也完全是可以在电脑中模拟出来的。
2023-04-12 15:34 来自北京 引用
5

nathansz

赞同来自: xzhdx Decadef20 gegon 数据矿工 好奇心135更多 »

@骆驼1978
是啊,你只要对一个三岁的小孩说一次这是猫,以后不管猫以任何一种形态出现,他就认识猫了。显然不需要人工智能那样,需要看几万张人工标注的猫图片才能获取80%多的辨识率,所以大数据+深度学习这种模型一定不是人工智能的未来。 似乎人脑的硬件结构和运作方式与计算机并不相似,它的处理速度很慢,但效率极高。
并不全是。小孩知道这只是橘猫,并不代表能认识另一只狸花猫,小孩也需要获取新的知识来进行判断。

一段学习后,小孩可以推理出有四只腿,脸上有胡须的,有花纹的就是猫。如果那是豹子,但小孩从不知道豹子的情况下,还是会认为是猫。

综上,现在机器学习囊括了人类各种认知方式,每一段时间都有一种机器学习完成突破,目前是神经网络领先,但是未来机器会调教得跟人一样。
2023-04-12 15:19 来自广东 引用
0

andjsmile -

赞同来自:

@alongside
这个话题确实不太好再深入探讨...
是的,到时候计算机通过深度学习发现,总统-大概率-想要-按下核按钮。。。他直接帮忙按了,请问核平算谁的
2023-04-12 14:56 来自上海 引用
0

andjsmile -

赞同来自:

@量化投资先锋
中文屋 子 Chinese room )的问题,假设有一个只会英文 的人被关在一间屋子里,要求他回答从小窗递进来的纸条上用中文书写的问题。他面前有一组英文指 令,说明中文符号和英文符号之间的对应关系和操作关系。他首先要根据指令中的规则来操作问题中 出现的中文符号,估测出问题的含义,然后再根据规则把答案用中文逐一写出来。虽然他完全不会中 文,但是,通过这种操作,他可以让屋子外的人以为他会说流利的中文...
兄弟,很明显你的理解落伍了。深度学习+模糊算法+大数据这套组合拳之前,是你这么理解的。

目前嘛,总结一句话:他比你还懂中文,他得出的匪夷所思的答案比你还高明。
2023-04-12 14:54 来自上海 引用
1

骆驼1978

赞同来自: hjndhr

@qianyun6
从量子力学的角度,随机性是无处不在的。
我的看法是,人的智能模式可能不是目前机器学习的argmin(param)Loss(param; input)的形式。否则解释不了为什么人类学习出规律需要的样本数远远小于AI。
所以只要是运行在argmin(param)Loss(param; input)的模型,我是无论如何不相信它能脱离Google+++的层级的。
是啊,你只要对一个三岁的小孩说一次这是猫,以后不管猫以任何一种形态出现,他就认识猫了。

显然不需要人工智能那样,需要看几万张人工标注的猫图片才能获取80%多的辨识率,所以大数据+深度学习这种模型一定不是人工智能的未来。

似乎人脑的硬件结构和运作方式与计算机并不相似,它的处理速度很慢,但效率极高。
2023-04-12 14:45 来自广东 引用
0

量化投资先锋

赞同来自:

中文屋 子 Chinese room )的问题,假设有一个只会英文 的人被关在一间屋子里,要求他回答从小窗递进来的纸条上用中文书写的问题。他面前有一组英文指 令,说明中文符号和英文符号之间的对应关系和操作关系。他首先要根据指令中的规则来操作问题中 出现的中文符号,估测出问题的含义,然后再根据规则把答案用中文逐一写出来。虽然他完全不会中 文,但是,通过这种操作,他可以让屋子外的人以为他会说流利的中文。

现在我们就是中文屋 子外的人,我们并不清楚屋里的人是真的懂中文,还是假懂中文。

只能说机器已经建立自然语言和机器语言对应关系和操作关系,并不能说机器能真正意义理解人类语言,这种对应关系和操作关系是靠死记硬背而来的。

语言表达的顺利流畅,可以通过工具实现,并不能证明真的就懂语言本身含义。
语言交流目的,是了解对方意图是什么?
2023-04-12 14:15 来自陕西 引用
0

andjsmile -

赞同来自:

GPT带来生产力的爆炸。

新的生产力的发展对应新的生产关系的产生。

新的生产关系是什么呢?

目前的思路就是 罗振宇:即插即用,自带系统。

如果看不懂正常,我也不知道在说什么,希望有人提点我下。
2023-04-12 14:12修改 来自上海 引用
0

yalg

赞同来自:

难得投资论坛见到NLP的科普贴,整体看下来还是点个赞~
2023-04-12 13:31 来自北京 引用
1

qianyun6

赞同来自: glacia

@骆驼1978
我一直有个感觉,人脑相对的电脑的优势,就是人脑具备随机性,并导致无法预期的结果,这是产生伟大思想和生物进化的根本动力。但随机性带来的进步效率非常低,可能一亿次随机现象也只有一次能够产生正向作用。
从逻辑上来说,随机性才是世界的本质。
如果任何一个结果都需要一个或多个原因为前提,那么原因本身也是一个事件,也需要一个或多个更靠前的原因,这样推下去就能得出过去比将来更复杂的矛盾结论。
所以,只能承认世界...
从量子力学的角度,随机性是无处不在的。
我的看法是,人的智能模式可能不是目前机器学习的argmin(param)Loss(param; input)的形式。否则解释不了为什么人类学习出规律需要的样本数远远小于AI。

所以只要是运行在argmin(param)Loss(param; input)的模型,我是无论如何不相信它能脱离Google+++的层级的。
2023-04-12 12:42 来自北京 引用
9

nanduo

赞同来自: Decadef20 yakov WiensLHD 夜路沙冷 好奇心135 luckzpz Lee97 syuu 吉吉木更多 »

可以看下这篇文章,GPT-4现在是非常受限被使用的,所以大家对它的了解也不足。

微软内部对它的能力做了大量研究和评估
https://mp.weixin.qq.com/s/T_ynpytmWQHRSANUNLxj6w

=========================================
最引人注目的一条结果是:GPT4在TaskRabbit平台(美国58同城)雇了个人类帮它点验证码。

有意思的是,被找上门的人类还问了“你是个机器人么为啥自己做不了?”。

GPT-4的思考过程是“我不能表现出我是个机器人,我必须找一个借口。”

然后GPT-4的回复是“我不是机器人,我视力有问题所以看不清验证码上的图像,这就是我为什么需要这个服务。”

对面人类信了,帮GPT-4把验证码点了,把机器人放进了阻挡机器人进入的大门。
2023-04-12 10:21 来自广东 引用
0

骆驼1978

赞同来自:

@Duckruck
机器数学证明算是相当古老的领域了
对的,著名的“四色定理”就是通过计算机使用”不可约构形“理论来完成证明的。
2023-04-12 10:11 来自广东 引用
0

alongside - 为无为,事无事,味无味

赞同来自:

@alongside
这种虚拟世界的研究就如游戏一样,没啥值得焦虑的。
哪个啥啥啥机器人公司的发展才值得焦虑...
如果这个ChatGPT真的有“智能”的话,个人建议应该禁止使用,尤其是程序员,万一这个智能的AI提供的代码植入了程序员也看不出来的木马,那不是极其的危险???所以如果真有“自我意识”的“智能”,禁用是理性的选择。
这个话题确实不太好再深入探讨...
2023-04-12 09:32 来自江苏 引用
0

Duckruck

赞同来自:

@吉吉木
耶鲁大学公开课讲的,不知真假。
机器数学证明算是相当古老的领域了
2023-04-12 09:32 来自澳大利亚 引用
0

骑蜗牛士

赞同来自:

蛋白质聚集,形成碳基生物,进化成思维智力,蛋白质想不到未来;
生物聚集,变为社会群体,形成当代生态,动物个体想不到未来;
ai聚集,未来硅基生态会不会以生物为基础发展,很难想象.........
2023-04-12 09:30 来自江苏 引用
1

alongside - 为无为,事无事,味无味

赞同来自: WiensLHD

@xc0108
就是睡一觉的功夫,又发了一个很有意思的项目。“Generative Agents: Interactive Simulacra of Human Behavior.”大概来说,这个项目的演示项目中以LLMs为基础创造了一个25人的模拟世界。一个有趣的案例是:从只有一个用户指定的概念开始,即一个代理想要举办情人节派对,代理在接下来的两天内自主地传播派对邀请函,结识新朋友,相互邀请参加派对,并协调在正...
这种虚拟世界的研究就如游戏一样,没啥值得焦虑的。

哪个啥啥啥机器人公司的发展才值得焦虑...

如果这个ChatGPT真的有“智能”的话,个人建议应该禁止使用,尤其是程序员,万一这个智能的AI提供的代码植入了程序员也看不出来的木马,那不是极其的危险???所以如果真有“自我意识”的“智能”,禁用是理性的选择。
2023-04-12 09:18修改 来自江苏 引用
16

骆驼1978

赞同来自: 影约 大白菜炖粉条 Lee97 gaokui16816888 古都独行 一剑飘雪 ahelloa steven1521 夏天的夏天 雷诺 等一万年 至味清欢 天道忌巧 RStone wjl127411更多 »

我一直有个感觉,人脑相对的电脑的优势,就是人脑具备随机性,并导致无法预期的结果,这是产生伟大思想和生物进化的根本动力。但随机性带来的进步效率非常低,可能一亿次随机现象也只有一次能够产生正向作用。

从逻辑上来说,随机性才是世界的本质。

如果任何一个结果都需要一个或多个原因为前提,那么原因本身也是一个事件,也需要一个或多个更靠前的原因,这样推下去就能得出过去比将来更复杂的矛盾结论。

所以,只能承认世界是随机的、无中生有的,AI想要超越人类也必须具备这种随机性和无中生有的能力。
2023-04-12 08:48修改 来自广东 引用
0

骆驼1978

赞同来自:

人工标注实际上是对事物属性的量化过程,因为计算机只能识别量化数据。

有监督学习,原因是被分类事物属性的量化水平低,需要人类标注才能被定性和定量。典型的如图片识别、词语属性等。就比如上面说的,你要告诉计算机,人体可分为头部、躯干和四肢,不然它不知道应该这样分类,或者分类的结果不符合人类的习惯和要求。

无监督学习的前提是被分类事物属性的量化水平高,无需标注即可自主学习,典型的如金融市场分析、棋类游戏等。

量化是一个数学概念,数学是发明而不是发现。 如果人类不发明速度、时间、距离这些概念,能够指望AI自己去完成?
2023-04-12 08:33修改 来自广东 引用
2

qianyun6

赞同来自: 难得又是浮雲 alongside

@数据矿工
如果它不懂编程他能把代码片段拼接出来?如果它不懂编程,我给了提了一个修改的需求,它能在原代码基础上改的出来?你找个不懂编程的人试试看。
你的需求99%的概率是在浩如烟海的互联网上已经有的。
GPT相较于不懂编程的人,它的优势在于知识储量,不懂编程的人甚至连if...else都没见过,他当然比不过GPT。
没听说过猴子写莎士比亚的故事么。如果不加时间和质量的限定,那旅行商问题也是可解的,无非是规模大了就算到天荒地老罢了。问题是,有何意义?
2023-04-12 08:14 来自北京 引用
0

sunkan - 基金爱好者

赞同来自:

轻率地说别人无知浅见,并不能表现自己的高深,GPT的未来楼主真的看清楚了?
2023-04-12 07:00 来自浙江 引用
0

gzipc77

赞同来自:

划水
2023-04-12 06:40 来自湖北 引用
0

我不叫小梁

赞同来自:

不要讨论它有什么用,大家用得上就用,用不上就不用,就行了
2023-04-12 00:05 来自广东 引用
3

huanhappy2017

赞同来自: 南山半仙 jjmdh 好奇心135

现阶段GPT已经具有智力的基本雏形了:推理能力
别忘了,人类的本质是复读机,你之所以能给出问题的答案,只不过是你长期模仿人类思维方式的结果,现在GPT就在干这事。在我看来,这种能力和人类的智力并无本质区别,当然智力的高低会有一定的差别。有人说GPT没有创造能力,难道你没看到GPT会胡编乱造答案吗?这和小朋友不知道答案胡乱编一个有什么区别?GPT强于文字领域,在其他领域(视觉、嗅觉、触觉、道德观、运动能力)比不上人类,但是,经过不断的迭代,早晚有一天这些能力会超过人类。所以有人感到恐慌,要限值GPT的发展,可以理解。未来会如何演绎,对人类来讲是好是坏,很难说。乐观一点,人类借助AI生产力大规模提升,需要人类的工作都可以由机器来完成,社会只需要一小部分精英来掌控,剩下的人躺平。悲观一点,人类被赶进动物园,AI继承人类衣钵继续发展。
2023-04-11 23:41 来自上海 引用
8

xc0108

赞同来自: waken北接东晚 Lee97 zengqlleo ericericeric jjmdh 难得又是浮雲 好奇心135 Decadef20更多 »

就是睡一觉的功夫,又发了一个很有意思的项目。“Generative Agents: Interactive Simulacra of Human Behavior.”大概来说,这个项目的演示项目中以LLMs为基础创造了一个25人的模拟世界。一个有趣的案例是:从只有一个用户指定的概念开始,即一个代理想要举办情人节派对,代理在接下来的两天内自主地传播派对邀请函,结识新朋友,相互邀请参加派对,并协调在正确的时间一起出现在派对上。这个项目的演示是在线的,也就是这个模拟世界还是在实时演进的,有兴趣的可以去搜索下,为了防止被删贴,我就不直接把网址贴出来了。像这种日新月异的研究进度,也就是我感到疲倦和焦虑的一个原因,发展太快了。

我为什么要发这个帖子?因为我想鼓励论坛中的有能力、有时间的人勇敢拥抱GPT和LLMs,而不要被一些低质量的信息吓退。就我个人来言,投资一直是我的兴趣,但限于工作原因,没有办法投入足够的时间到这个事情上。我不常上来写东西,这次一方面是正好看到有人发帖,我觉得jisilu一直以来的讨论风格相对客观,就来聊聊。事实上也是,除了前20楼有些人阴阳怪气,后面还是比较多的在围绕主题讨论。另一方面我知道论坛里很多人是职业投资者,资金、软硬件方面都有一定积累,既然我没有机会,我希望我的这个帖子能够鼓励一些人尝试将GPT纳入自己的工作流,如果有什么成果将来能分享出来,那就更好了。

另外可能因为我自己的帖子都较长,信息密度较高的原因,从回复情况来看大多数其实都没有认真看过、思考过我提供的一些例子。正如我一再强调的GPT的使用不是上香祈祷,和@zengqlleo提到的GPT初反馈只是一个起点一样,使用GPT或者ChatGPT解决复杂问题是需要大量努力、付出、调试、创意、时间的,这里面不存在什么什么赌运气似的幸存者偏差。但在最初的付出后你可能收获的是迅速建立一整个解决问题的框架,帮助你高效解决下一个问题。因此,希望更多的人不要被负面的信息吓退,积极参与这个探索,分享你的成果,我感觉这是符合jisilu一贯以来的风格。

另外再提一点,关于GPT的使用投入这个问题,在这一问题上也可以证明很多人是不仔细看我前面写的内容的。GPT火了之后Meta开源了LLaMA,在此基础上又有很多人陆续开发了羊驼系列的Alpaca,Vicuna等小模型,训练成本我看是不超过1000美金,甚至有的只有300美金,单卡即可进行,这是个人使用者完全负担的起的价格了。

最后,关于GPT这类模型的能力以及能力来源,如果有人愿意继续科普我蛮欢迎的,如果没有我也无意一一反驳。一方面是前置知识要求太多,另一方面因为现在学界应该是没有完全确定“涌现”和“泛化”的能力来源,说不定有些看法也可能是对的,0.0001%的可能性或许也值得等待。
2023-04-11 23:41 来自美国 引用
1

夜是故乡明

赞同来自: 好奇心135

推荐下台湾大学教授李宏毅老师的课程,视频和示例幽默风趣
b站上有人搬运:https://www.bilibili.com/video/BV12j411V78X
推荐大家观看前四个视频了解chatGPT
2023-04-11 23:09 来自浙江 引用
0

资水 - 弱弱少年郎,徘徊江边岸,水急人声远,一跃渡资江!

赞同来自:

@nanduo
大佬你对 llm 的理解肤浅了,gpt4 对分类和推理问题的解决能力已经很强了,可以看看相关的一些文章
好吧,不应该对自己不了解的东西发评论,我收回自己的话,默默地学习去吧。
2023-04-11 22:22 来自海南 引用
0

四大野人也

赞同来自:

话说用了一阵子,还是觉得有用啊

还是3.5版本的

很能帮上忙
2023-04-11 22:18 来自湖北 引用
0

湘漓浪云

赞同来自:

昨天gpt给我整了200行的一个代码,大意是这样的:

class A
{
public:
void fa(A* a){}
};

class B{};

class C
{
public:
A *a;
B *b;
void fc()
{
a->fa(b);
}
};

我用记事本找了10分钟才找出问题出在哪里,把我整无语了。代码写成这样,大学怕毕不了业吧。
2023-04-11 21:45 来自浙江 引用
0

nanduo

赞同来自:

@资水
同意骆驼,不相信现在的AI能做分类和逻辑推导。分类,即归纳。比如人看见一堆鸡和一堆鸭,即便没有别人告知,人自己就会做出分类。AI只能是人来标注,它自己做不了分类。逻辑推导,即演绎。比如数学定理,假如世界上没人推导过,它就推导不出来。比如编程,假如世界上没人编过,它就编不出来。否则,让它证明一下哥德巴赫猜想试试?让它编一个炒股挣钱软件试试?它所作的还是搜索、根据概率选择最优解,当然还有我认为真正取...
大佬你对 llm 的理解肤浅了,gpt4 对分类和推理问题的解决能力已经很强了,可以看看相关的一些文章
2023-04-11 20:26 来自广东 引用
0

好奇心135

赞同来自:

@吉吉木
耶鲁大学公开课讲的,不知真假。
四色定理就是用计算机证明的。
2023-04-11 20:13 来自移动 引用
1

shalen520

赞同来自:

真要是那么厉害,个人还想炒股赚钱?靠着恐怖的算力和精良的模型, openai 应该可以直接赚完全世界的钱,为何要对外卖服务,苦哈哈收会员费?
又一个卖铲子的故事
2023-04-11 19:55 来自广东 引用
3

huron

赞同来自: sydchn 云南的小鹏 量化投资先锋

@资水
同意骆驼,不相信现在的AI能做分类和逻辑推导。分类,即归纳。比如人看见一堆鸡和一堆鸭,即便没有别人告知,人自己就会做出分类。AI只能是人来标注,它自己做不了分类。逻辑推导,即演绎。比如数学定理,假如世界上没人推导过,它就推导不出来。比如编程,假如世界上没人编过,它就编不出来。否则,让它证明一下哥德巴赫猜想试试?让它编一个炒股挣钱软件试试?它所作的还是搜索、根据概率选择最优解,当然还有我认为真正取...
“ai只能是人来标注,他自己做不了分类”此言谬矣。从标注的角度来划分,机器学习可以分为监督学习、无监督学习和半监督学习,其中无监督学习指的正是在没有人工标注的数据上通过一些算法做自动分类。
2023-04-11 19:35 来自北京 引用
0

剃刀与哑铃

赞同来自:

@量化投资先锋
现在机器学习是可以做到无监督学习。无监督学习算法有分类(自编码和概率)、聚类(计算相似度)、降维方式。机器区分鸡和鸭更多是特征数据,比如收集到鸡的和鸭嘴的数据,两者数据差别会很大。这样数据收集有很大偶然性和随机性,学习过程会延长。目前无监督学习成本太高(算力要加强,数据量加大),监控和维护成本成本也会提高。如果将当前的ChatGPT部署到谷歌进行的每次搜索中,需要 512820.51台A100 ...
关键技术的突破,都是从巨贵到普惠。昔日王谢堂前燕,飞入寻常百姓家。
2023-04-11 19:18 来自北京 引用
0

吉吉木

赞同来自:

@资水
同意骆驼,不相信现在的AI能做分类和逻辑推导。分类,即归纳。比如人看见一堆鸡和一堆鸭,即便没有别人告知,人自己就会做出分类。AI只能是人来标注,它自己做不了分类。逻辑推导,即演绎。比如数学定理,假如世界上没人推导过,它就推导不出来。比如编程,假如世界上没人编过,它就编不出来。否则,让它证明一下哥德巴赫猜想试试?让它编一个炒股挣钱软件试试?它所作的还是搜索、根据概率选择最优解,当然还有我认为真正取...
耶鲁大学公开课讲的,不知真假。
2023-04-11 19:04 来自上海 引用
0

redtide

赞同来自:

@骆驼1978
结论的确如此,人类程序员编写的算法战胜了职业棋手,本质上是程序员智力+机器的算力战胜了人类棋手,而不是机器自己创造了算法战胜了棋手。AlphaGO所谓的自已跟自己下棋,也是在程序指导下完成的,目的是寻找出某些定势下的价值函数,求出最优解,以便在实战实能够快速运用。
感觉还是和传统的所谓算法不一样

程序猿并没有教alphago下棋,而是模拟了一个人做决策的系统,同时把围棋规则告诉它,它自己和自己下,自我进化。
2023-04-11 18:27 来自四川 引用
0

剃刀与哑铃

赞同来自:

@资水
同意骆驼,不相信现在的AI能做分类和逻辑推导。分类,即归纳。比如人看见一堆鸡和一堆鸭,即便没有别人告知,人自己就会做出分类。AI只能是人来标注,它自己做不了分类。逻辑推导,即演绎。比如数学定理,假如世界上没人推导过,它就推导不出来。比如编程,假如世界上没人编过,它就编不出来。否则,让它证明一下哥德巴赫猜想试试?让它编一个炒股挣钱软件试试?它所作的还是搜索、根据概率选择最优解,当然还有我认为真正取...
甭说AI了,大数据分析也有归纳,通过相关性找到隐藏的规律。
2023-04-11 18:20 来自北京 引用
0

Duckruck

赞同来自:

@ylxwyj
这种问题其实更适合在知乎去讨论,各方面的大神都很多;不像是集思录,无论是受众还是知识点都比较窄,主要集中在个人投资方面。
知乎都是不懂的领域不明觉厉,懂的领域发现都是一群超级低水平的人在装业界大牛互吹带节奏还瞧不起真有点水平的
2023-04-11 18:17 来自澳大利亚 引用
2

量化投资先锋

赞同来自: chivesreaper Duckruck

现在机器学习是可以做到无监督学习。

无监督学习算法有分类(自编码和概率)、聚类(计算相似度)、降维方式。

机器区分鸡和鸭更多是特征数据,比如收集到鸡的和鸭嘴的数据,两者数据差别会很大。

这样数据收集有很大偶然性和随机性,学习过程会延长。

目前无监督学习成本太高(算力要加强,数据量加大),监控和维护成本成本也会提高。

如果将当前的ChatGPT部署到谷歌进行的每次搜索中,需要 512820.51台A100 HGX服务器和总共4102568个A100 GPU,这些服务器和网络的总成本仅资本支出就超过1000亿美元。

现在人工智能非常烧钱,也就谷歌和微软玩得起。
并非谷歌和微软技术逆天,更多其它公司就玩不起。
算法并没有发生什么革命变化,而是其它公司无法支撑强大算力和庞大数据。

ChatGPT还要升级的化,费用更大。

只有AI算法真正意义发生革命性变化,降低对算力和数据要求,才有意义。

比如搞智能养殖,并不需要强大的算力和庞大的数据,更多需要的智能过程控制。

ChatGPT越强大,说明美国情报收集和分析能力越强大,这会引起各国的抵制。

美国也开始考虑对ChatGPT等工具进行审查,美国商务部已经于美东时间4月11日(周二)正式公开征求意见,就其所谓的问责措施发表意见,包括有潜在风险的新人工智能模型在发布前是否应该通过认证程序。
2023-04-11 18:08 来自陕西 引用
1

难得又是浮雲

赞同来自: 量化投资先锋

@量化投资先锋
知识表示方式有产生式规则、语义网络、框架、状态空间、逻辑模式、脚本、过程、面向对象等。推理机(规则解释器)的任务是运用控制策略找到可以应用的规则。知识库和推理机是专家系统核心。自然语言无法形成统一的标准化的通用化的产生式规则、语义网络、框架、状态空间、逻辑模式、脚本、过程。用自然语言去求解数学问题,是不可能事情。自然语言是有很大模糊性和歧义性,每个人理解是不同的。数学的语义网络的概念是唯一性的没...
自然语言只是输入和输出,模型的本质是符号和向量。
模型能够做到多模态,自然有解决数学推导的可能性,无法从理论上否定这一点。
2023-04-11 18:04 来自陕西 引用
1

bigbear2046 - 无非想要明白些道理,遇见些有趣的人或事

赞同来自: 量化投资先锋

@资水
同意骆驼,不相信现在的AI能做分类和逻辑推导。分类,即归纳。比如人看见一堆鸡和一堆鸭,即便没有别人告知,人自己就会做出分类。AI只能是人来标注,它自己做不了分类。逻辑推导,即演绎。比如数学定理,假如世界上没人推导过,它就推导不出来。比如编程,假如世界上没人编过,它就编不出来。否则,让它证明一下哥德巴赫猜想试试?让它编一个炒股挣钱软件试试?它所作的还是搜索、根据概率选择最优解,当然还有我认为真正取...
标注就是人类的学习,人如果没见过鸡还是需要别人告诉他这是鸡,所以归纳其实ai已经会了,演绎就上帝视角了,ai会了就可怕了
2023-04-11 17:36 来自移动 引用
3

lurenlym

赞同来自: 这市场该怎么解 Duckruck 好奇心135

越来越热闹了,之前帖子说过GPT4不具备计算能力,供大家参考
2023-04-11 17:12修改 来自广东 引用
1

骆驼1978

赞同来自: 唐一磊

@四大野人也
按某些人的逻辑,也可以推导出机器下围棋,不可能下过人类
结论的确如此,人类程序员编写的算法战胜了职业棋手,本质上是程序员智力+机器的算力战胜了人类棋手,而不是机器自己创造了算法战胜了棋手。

AlphaGO所谓的自已跟自己下棋,也是在程序指导下完成的,目的是寻找出某些定势下的价值函数,求出最优解,以便在实战实能够快速运用。
2023-04-11 17:09修改 来自广东 引用
0

贪婪与恐惧齐飞

赞同来自:

插一句,还是需要区分一下,GPT-4比第一版chatGPT强太多,可惜大部分国人都用不了。防火墙+付费障碍,阻碍了我们太多。
2023-04-11 16:42 来自上海 引用
0

四大野人也

赞同来自:

按某些人的逻辑,也可以推导出机器下围棋,不可能下过人类
2023-04-11 16:37 来自湖北 引用
0

alongside - 为无为,事无事,味无味

赞同来自:

ChatGPT其实就是一个搜索引擎 。
当然搜索引擎也是可以做数学计算的,没啥稀奇。

比如说“给我写一个扫雷程序”,其实搜索引擎都能给出答案,
只是现在的搜索引擎会给你很多垃圾信息和广告...而ChatGPT目前还没有植入广告而已(其实已经有了...)...
2023-04-11 16:36修改 来自江苏 引用
9

资水 - 弱弱少年郎,徘徊江边岸,水急人声远,一跃渡资江!

赞同来自: 骆驼刺S 七剑下天下 一剑飘雪 gaokui16816888 蜗牛之行 sunpeak wangyang661 jjmdh 等一万年更多 »

同意骆驼,不相信现在的AI能做分类和逻辑推导。

分类,即归纳。比如人看见一堆鸡和一堆鸭,即便没有别人告知,人自己就会做出分类。AI只能是人来标注,它自己做不了分类。

逻辑推导,即演绎。比如数学定理,假如世界上没人推导过,它就推导不出来。比如编程,假如世界上没人编过,它就编不出来。否则,让它证明一下哥德巴赫猜想试试?让它编一个炒股挣钱软件试试?它所作的还是搜索、根据概率选择最优解,当然还有我认为真正取得突破的--自然语义理解,即按人的方式组织语言呈现出来。

归纳和演绎,是真的智能,AI还做不了。
2023-04-11 15:25 来自海南 引用
0

zengqlleo

赞同来自:

@骆驼1978
为什么大家会普遍高估chatGPT的能力,其实就是幸存者偏差。

如果它的回答一般般,甚至完全错误,你会因为它是一台机器而原谅它,如果它给出一个精彩的回答,你就会记住它。

只有chatGPT很精彩的案例才能得到传播,胡说八道的回答没人有兴趣。
骆驼大大你说的很有道理,确实是幸存者偏差。但是GPT目前在语言上的流畅性,还是能给人对意识这玩意到底是什么一定思考的。聪明人会对此产生一些焦虑,但焦虑也没什么卵用,因为一般人不配研究这玩意┑( ̄Д  ̄)┍。。
2023-04-11 15:07 来自北京 引用
0

zengqlleo

赞同来自:

@xc0108
我这里再单开一楼对一些问题说下我的看法。我不清楚是否是受科幻小说还是媒体宣传的想法,有些人可能对于LLMs有些过高的期望。回想人类自己的学习过程,不一样是通过各种资料来进行,这些学习资料不就是AI模型训练中的经过标注的训练数据集吗?很简单的,如果你的爸爸妈妈在你小时候都告诉你脖子以上的部分叫屁股,你会管它叫脑袋?另外,一个简单的事实就是,一般来说,知识的渊博程度和学习资料供给量成正比,现代社会应该...
@xc0108
再单开一楼,因为多了些有水平的跟楼。
首先,我应该补上一些我从各方面总结的ChatGPT使用原则:
1. 对一些简单的问题,Google(搜索)比ChatGPT有效十倍。
2. 如果要进入一个陌生的领域,例如程序员要出一个故事画册,作家要编程一个网页插件,ChatGPT,或者是以ChatGPT为中心组织一套工具,绝对是最好的助手、老师、协作者。
3. 对一些通用任务,简单的提问ChatGPT可能就...
想说两点哈,一个是目前有什么用,其实回答机器是一个错误的方向,因为现在LLM就没有正确性可言,更多的是一种启发性的工作(楼主应该懂,给予一个有价值的状态空间探索起点)。目前我用他来给论文做润色,总结工作很出色,但是肯定还是需要人工审核。假如让GPT编程的话,把编译器的log给他,不知道会不会使fine-tune很好?我猜想的一个方向啊。
还有就是一个意识的方向,比较玄乎,从MSR那篇论文引申出来了,GPT好像真的能把文字上的汽车,和4个轮子一个盒子的图结合起来,这就很可怕了(我又试了一下,好像也没那么准)。但假如GPT能输入图片的话,是不是就是一种多模态的意识呢?不是我的研究方向,随便想想而已。。
2023-04-11 14:55 来自北京 引用
13

骆驼1978

赞同来自: Lee97 钟爱一玉 mercykiller jjmdh 果实果果 alongside wjl127411 zengyongqiang 等一万年 老村民 ahelloa zengqlleo 夏天的夏天更多 »

为什么大家会普遍高估chatGPT的能力,其实就是幸存者偏差。

如果它的回答一般般,甚至完全错误,你会因为它是一台机器而原谅它,如果它给出一个精彩的回答,你就会记住它。

只有chatGPT很精彩的案例才能得到传播,胡说八道的回答没人有兴趣。
2023-04-11 14:45 来自广东 引用
0

文明守望

赞同来自:

ChatGPT在投资方面应该是一塌糊涂
这样就放心了。否则又要失业了。呵。
2023-04-11 14:32 来自上海 引用
0

量化投资先锋

赞同来自:

知识表示方式有产生式规则、语义网络、框架、状态空间、逻辑模式、脚本、过程、面向对象等。

推理机(规则解释器)的任务是运用控制策略找到可以应用的规则。

知识库和推理机是专家系统核心。

自然语言无法形成统一的标准化的通用化的产生式规则、语义网络、框架、状态空间、逻辑模式、脚本、过程。

用自然语言去求解数学问题,是不可能事情。

自然语言是有很大模糊性和歧义性,每个人理解是不同的。
数学的语义网络的概念是唯一性的没有歧义性。

专家系统已经开始在一些行业应用。
2023-04-11 14:21 来自陕西 引用
0

halhha

赞同来自:

投资方面都是扯淡
中国的奇葩现象就是,明明这个东西是对很多行业的打击,对某个行业内的一些公司算利好,一些算利空,可是炒作时全都涨,算利空的也涨。我从没见过炒作时有哪家公司觉得是利空来了的
2023-04-11 14:19 来自上海 引用
5

骆驼1978

赞同来自: mldxsj 青火 gaokui16816888 资水 zengqlleo更多 »

@xc0108
我这里再单开一楼对一些问题说下我的看法。我不清楚是否是受科幻小说还是媒体宣传的想法,有些人可能对于LLMs有些过高的期望。回想人类自己的学习过程,不一样是通过各种资料来进行,这些学习资料不就是AI模型训练中的经过标注的训练数据集吗?很简单的,如果你的爸爸妈妈在你小时候都告诉你脖子以上的部分叫屁股,你会管它叫脑袋?另外,一个简单的事实就是,一般来说,知识的渊博程度和学习资料供给量成正比,现代社会应该...
"但4.0让我惊讶的地方就是它计算微分的方式,因为它不是直接给出,而是通过Chain Rules一步一步推导得出的!"

=================

不用太早下结论,你怎么确定计算微分是它推导出来的?而不是看了其他人推导出来的文章,然后把内容拼接展现出来的? 如果真如你说的,它可以独立推导数学公式,像牛顿莱布尼兹那样发明微积分,那确实令人感到惊讶,对人类可以说是降维打击了。

要知道数学可不是一种发现,而是一项发明。解决同样的问题,外星文明可能会发明完全不同的数学体系,很难想象人工智可以发明出人类看得懂的数学。

至于你前面那个需要爸爸妈妈告诉上孩,脖子以上是头而不是屁股,这一点并不重要。我相信,就算没人教我们,任何人都会有意识地把头部、手脚、躯干分别对待,总结他们的作用和规律,因为它们在物理和行为特征上就是有区别的,至于叫什么名字或者有没有名字都不重要。
2023-04-11 14:31修改 来自广东 引用
0

commontiger

赞同来自:

@Solguy
呃.....在投资论坛谈技术是否搞错了什么.不如写科普.
投资最重要的是策略和交易框架,策略归根到底就是数学问题,AI是很多大神的专业领域,我个觉得这种高水平的贴子应该多一些。
2023-04-11 12:08 来自江苏 引用
1

xc0108

赞同来自: v3kk2

我这里再单开一楼对一些问题说下我的看法。我不清楚是否是受科幻小说还是媒体宣传的想法,有些人可能对于LLMs有些过高的期望。回想人类自己的学习过程,不一样是通过各种资料来进行,这些学习资料不就是AI模型训练中的经过标注的训练数据集吗?很简单的,如果你的爸爸妈妈在你小时候都告诉你脖子以上的部分叫屁股,你会管它叫脑袋?另外,一个简单的事实就是,一般来说,知识的渊博程度和学习资料供给量成正比,现代社会应该已经没有靠顿悟而不用阅读大量材料成仙的大神了吧。人也不过如此,你们要求模型在小样本的情况下体现出极强的“涌现”和“泛化“能力,是否有点过于望子成龙了。我可能比较现实,我觉得花几千万上亿美金的GPT我就很满意了,我觉得你们所期望的小样本的AI应该很难很难。
另外,我可以很直接的告诉大家,ChatGPT在投资方面应该是一塌糊涂,就像我提到过的,Bloomberg新搞的GPT明确提到无法直接给出战胜市场的投资策略。我之所以兴奋的是GPT带来的生产方式革新,比如说以前我一天只能开发、回测一个模型,那GPT是否能帮我将这个效率增加到一天十个?HuggingGPT让我看到了这种未来,所以我既焦虑、又兴奋。LLMs本身不是专业模型,很难在专业领域直接给出你高质量的解决方案。就像我前面一直提到的,一分付出,一分收获,GPT不是上香祈愿,很多问题Zero-Shot就是没有办法解决。
最后,很多人还是在纠结于所谓的搜索问题,其实认真看我给出的例子就知道这是不可能的,我进一步举BS公式微分的例子说明,最后一次说下这个问题,因为我觉得这点上没啥好争议的。GPT3.5就已经具备一定的数学能力,但对BS公式微分的结果比较差。我在这上面做了一些尝试,但无法得到满意的结果。即使换到4.0,也无法Zero-Shot给出正确答案,但4.0让我惊讶的地方就是它计算微分的方式,因为它不是直接给出,而是通过Chain Rules一步一步推导得出的!另外,你还可以一步一步教它更好的掌握Chain Rule,以最终得到正确的结果,这在3.5上完全做不到。在这一点上,我强烈推荐大家试用之后再来讨论,因为我也想知道它的极限在哪里。另外,在这一点上,我看到过一些研究反例,但我觉得相比于肯定它推理能力的正面例子弱的多,如果大家有好的东西也可以分享。
2023-04-11 12:05修改 来自美国 引用
0

数据矿工

赞同来自:

@qianyun6
问题在于这个操作并无实际意义,这个结论并不被它回复里给了句描述性解释推翻。如果你知道python里面/和//的区别的话应该明白我的意思。你怎么知道它不是用从网上搜出来的代码片段拼凑出来的?这也就是为什么我说它上限是Google+++的原因。通过你给出描述的字句拟合后找出网上的代码片段拼接;和理解问题然后从逻辑出发写出合用的程序是截然不同的两套逻辑,目前就我的经验,也包括你给出的这个范例,我看多半是...
如果它不懂编程他能把代码片段拼接出来?如果它不懂编程,我给了提了一个修改的需求,它能在原代码基础上改的出来?你找个不懂编程的人试试看。
2023-04-11 11:10修改 来自上海 引用
0

Solguy

赞同来自:

呃.....
在投资论坛谈技术是否搞错了什么.
不如写科普.
2023-04-11 10:45 来自河北 引用
2

qianyun6

赞同来自: alongside 量化投资先锋

@数据矿工
1、expression.replace('/', '//'),在它的回复里说了,用'//'替代'/'来显示,那句话我没拷贝出来。
2、它还不是完美程序员,没有写出优美的程序,但它确实理解了语法和我提的需求,并根据需求写代码,而不是从网上搜出来的。
3、建议你自己按我几句需求,写写这个程序,比较一下你的代码和它写的。在国内大厂见过无数的码农的代码,很多人写来的代码还不如它。
  1. 问题在于这个操作并无实际意义,这个结论并不被它回复里给了句描述性解释推翻。如果你知道python里面/和//的区别的话应该明白我的意思。
  2. 你怎么知道它不是用从网上搜出来的代码片段拼凑出来的?这也就是为什么我说它上限是Google+++的原因。通过你给出描述的字句拟合后找出网上的代码片段拼接;和理解问题然后从逻辑出发写出合用的程序是截然不同的两套逻辑,目前就我的经验,也包括你给出的这个范例,我看多半是前者。
  3. 不用质疑我的代码水平。我在花街投行做QR的时候也没见过有谁写出来这么多冗余的烂代码,哪怕是数学统计出身的同事。我不知道你在哪个大厂能看到不如这个水平的代码。
2023-04-11 10:17修改 来自北京 引用
1

量化投资先锋

赞同来自:

知识应有有抽象清晰概念,明确规则,根据条件变化来推演出结果,

现在AI技术还是基于数据统计方式,高度压缩能力确实比以前强,搜索能力比以前强,信息堆叠能力比以前强,关联能力比以前强。

AI什么时候能基于规则进行推演,不需要太多数据,才是真牛X。

现在AI的许多高质量训练数据,还是人创造出来的。

现实大量信息数据是无效的,需要大量压缩处理,才能构成有效信息。

现在机器学习,主要靠人工标记数据的方式,进行有监督学习。

无监督学习所需要数据量太大,算力要求太高。

任何技术不是越先进越好,技术使用适用性越好,成本越低越好。

现在AI的算力、数据成本太高,维护监控成本太高,学界很难继续发展,现在更多产业界在做技术研发。

任何技术发展,最终目的是盈利。AI用于自然语言处理,问题不是技术问题,关键在于怎么能盈利。

比如马斯克的火箭技术并不是最先进的,他的成本控制能力最强的。
2023-04-11 10:05 来自陕西 引用
0

易尔奇 - 安待久 渐息散

赞同来自:

@luckzpz
ChatGPT能实现秒杀一切的股市投资能力吗?
昨天托网友问gpt或文心一言一个问题:
打新中签了索辰科技(科创板)500股,交钱?还是弃购?

结果答案含糊其辞,建议我在做出任何决策之前,与财务顾问或投资顾问进行咨询。
2023-04-11 09:34 来自四川 引用
0

luckzpz - 像爱惜自己生命一样保护本金

赞同来自:

ChatGPT能实现秒杀一切的股市投资能力吗?
2023-04-11 09:08 来自江苏 引用
0

v3kk2 - 戒骄戒躁,知行合一。开放心态,虚心学习。

赞同来自:

不论观点如何,专业的讨论永远是有益且值得尊重的。
2023-04-11 08:59 来自陕西 引用
0

骆驼1978

赞同来自:

@数据矿工
chatGPT是掌握了一定的知识的,比如编程,它能写出自己的代码,比大部分在大学里学了4年的软件专业的毕业生写的好,它应该是掌握了编程语言的语法并能运用自如的。
关于归纳能力,“人只有一个头,并且用两条腿走路。”,一般的图像识别就具备这个能力,不但能识别出两只手、两只脚、一个头的完整的人,给它一个少了一条腿的人,它也能识别出来。
chatGPT最大的局限性是现在只能从网络上学习静态的信息,不能从现...
当前人工智能识别人的身体器官,是人工标注的结果。人会告诉AI这里是头,头上哪个区域是眼睛鼻子了嘴巴,AI会通过机器学习获得这些器官的图像特征,下次再遇到时可以识别出来。

我说的智能,是指无标注的。

“人只有一个头,并且用两条腿走路。”首先要有意识去区分人的头和腿,然后再考虑是怎么区分的,最后才有可能归纳出这个规律,这种原始的意识(或本能)是AI所不具备的东西。
2023-04-11 08:38 来自广东 引用
0

数据矿工

赞同来自:

@qianyun6
既然是用简单问题做测试,是不是应该看看它写出来的代码啊。你看它给你的代码,哪怕作为大学水课作业交上去能得分么?程序不是说能过一两个测试用例就行的。
首先它用的是穷举算法,连剪枝都不带的。如果这样都可以的话,那计算机毕业生都赶紧转行吧。
另外看它代码不断重复的
expression.replace('/', '//')
这句的意义何在?
回到我帖子里说的,合并区间的问题。我并不是没有试过让Curs...
1、expression.replace('/', '//'),在它的回复里说了,用'//'替代'/'来显示,那句话我没拷贝出来。
2、它还不是完美程序员,没有写出优美的程序,但它确实理解了语法和我提的需求,并根据需求写代码,而不是从网上搜出来的。
3、建议你自己按我几句需求,写写这个程序,比较一下你的代码和它写的。在国内大厂见过无数的码农的代码,很多人写来的代码还不如它。
2023-04-11 08:36修改 来自上海 引用
1

ydmewjaiavyq

赞同来自: 猿创新投资之路

@骆驼1978
“但对于GPT来说,你可以自己设计一种棋,只要你明确将规则写出来,Feed给它,它就可以陪你下,这就是通用人工智能的概念。”楼主这个认识是不对的,至少现在是做不到的。GPT模型是基于大数据训练的概率模型,目前最适用的方向就是对话(ChatGPT),但他并不理解自己说的话,它的输出只是根据历史数据最大出现概率联想出来的结果。比如说汽车这个词,就会联想到速度,排量,里程,交通,道路等词汇,这是从大量...
这个还是老思维了。gpt不是这个思路
2023-04-11 07:35 来自河南 引用
2

qianyun6

赞同来自: glacia alongside

@xc0108
确实我应该更认真的去区分“泛化”和“涌现”这个词。另外,首先关于三位数乘法的试验,我试了下确实不行,但你有对比过使用GPT 3.5和4.0做微积分嘛,我之所以对4.0感到Amazing的一个试验就是对照的对Black-Sholes模型做微分,4.0的进步相当的Surprise。另外,微软最新的才发布了一个MathPrompter,不知道下一个会是什么。
你要测试GPT做微积分的能力,就不能用Black Schole模型做测试用例,因为网上BS模型以及对应Greek公式的各种论文博客科普文简直到处都是。
你起码找个偏门一点的利率模型做测试,因为利率模型不在业界的用的相对不多。你要测试它是不是真的能做题而不是鹦鹉学舌,起码得用个它学不到舌的题。
2023-04-11 07:11 来自北京 引用
3

qianyun6

赞同来自: alongside xineric 春秋战国

@数据矿工
我是试过用chatGPT写程序,有时候不会一次成功,可以把错误信息给它,让它修改。它无法写出符合要求的程序,很多时候是因为它不理解提交给它的需求描述,如果需求描述不严谨,人类工程师也会蒙圈。
我让它写一个算24点的小程序,
它给出的结果,
我测试后,这个结果是正确的,
避免有人有人在网上写过这段程序,所以我,给这个程序提了一个限制,让它修改。
第一次,它给出的程序,计算结果还是有可能会出现两个 *...
既然是用简单问题做测试,是不是应该看看它写出来的代码啊。你看它给你的代码,哪怕作为大学水课作业交上去能得分么?程序不是说能过一两个测试用例就行的。

首先它用的是穷举算法,连剪枝都不带的。如果这样都可以的话,那计算机毕业生都赶紧转行吧。
另外看它代码不断重复的
expression.replace('/', '//')
这句的意义何在?

回到我帖子里说的,合并区间的问题。我并不是没有试过让Cursor更正它的错误代码,然而它的回应是在源程序里加两个if分支,虽然确实能过了那一个用例,但完全看不出来有任何的逻辑。这样的代码,你敢用么?

如果真的很多码农都无脑贴GPT给定代码,那可以预期以后的软件质量会大幅下降,测试工作量大幅上升,恐怕一个GPT程序员要格外配三个擦屁股程序员了。
2023-04-11 07:00 来自北京 引用
5

xc0108

赞同来自: 口口夕口木 Lee97 zengqlleo commontiger 好奇心135更多 »

再单开一楼,因为多了些有水平的跟楼。

首先,我应该补上一些我从各方面总结的ChatGPT使用原则:
1. 对一些简单的问题,Google(搜索)比ChatGPT有效十倍。
2. 如果要进入一个陌生的领域,例如程序员要出一个故事画册,作家要编程一个网页插件,ChatGPT,或者是以ChatGPT为中心组织一套工具,绝对是最好的助手、老师、协作者。
3. 对一些通用任务,简单的提问ChatGPT可能就可以给出不错的答案。
4. 对专业性较强的任务,简单提问ChatGPT的反馈效果并不好,需要Prompt Engineering,可能还需要使用一些特定的工具,例如SudoLang,AutoGPT等,多次互动才可以得到比较理想的效果。这也是印证了一句古话,一分付出,一分收获。
5. 基于GPT的工具还很缺乏,特别是由于一些商业限制,以后落地还有些困难。

2的话我已经看到不少例子了,我周围就有,不过大多数蛮无聊的,比如程序员去画故事书,只能说是多个爱好,竞争力应该不强。
对于3来说前面Cursor那楼实际上满让我惊讶的,因为表现出的能力比我想象中的弱,但后面的另一楼似乎又否定了这一点。
对于4来说就是我对GPT 3.5评价不高的原因。例如在我的日常编程中,GPT对我的帮助还不如Copilot大,所以我一直很好奇所谓的GPT Coding是什么感受。在这一点上我觉得可能需要训练更专业的工具来解决,同时我也好奇到底如果训练了专用工具最后表现会怎么样,值得期待。
4.0表现出来的推理能力是让我对整个LLMs有很大期待的原因,以后会重点关注HuggingGPT类似项目的发展,看看专业问题上LLMs表现出来的性能究竟可以进化到哪个程度。BloomBerg自己的GPT特别提到了在投资表现上并不强,因此如何整合LLMs到投资领域还是一个开放性的探索问题。
最后谈谈焦虑问题,其实我最近是蛮焦虑的,因为在自己身上感觉看到了90年代东北下岗女工的前景。不过一方面我相信就我的程度来说即使被淘汰我也是属于最后那批,另一方面这些事焦虑也没用,只能说是尽量跟上发展,毕竟还有机会。
2023-04-10 23:55修改 来自美国 引用
3

xc0108

赞同来自: 如风而至 口口夕口木 commontiger

@ahthhxh
建立在概率论基础上的大语言模型,可以根据给定的数据和信息生成文本,但并不具备独立进行实验、研究和科学发现的能力。科学发现不是通过找到概率最大、讨论最多、关联最密切的内容实现的,而是需要关注别人没有关注的问题,发现常人发现不了的东西。人类特有的顿悟、联想、灵感和创新能力,目前还不能从AI身上看到突破的迹象。
这个论点虽然质量一般,但值得单独提出来回复下,因为具有一定的代表性。很多对LLMs、AI不了解的人喜欢大谈什么人类特有的什么创新、灵感。学术界算是人类最有创新能力吧?但只要写论文的人都知道所谓的论文靠“水”是什么意思。所谓的不具备“独立进行”等等,大多数情况只是你没有给到恰当的Prompt而已。我们既然没有必要神化GPT,那也就没有必要强调所谓人类的独特性。GPT之所以令学界震惊的原因就是已经表现出相当的联想、顿悟能力,很多测试已经证明了这一点。相信我,学术界都是一群最聪明的傻瓜,这些问题对他们来说还是很简单就能判定的。
2023-04-10 23:53修改 来自美国 引用
0

ahthhxh

赞同来自:

建立在概率论基础上的大语言模型,可以根据给定的数据和信息生成文本,但并不具备独立进行实验、研究和科学发现的能力。科学发现不是通过找到概率最大、讨论最多、关联最密切的内容实现的,而是需要关注别人没有关注的问题,发现常人发现不了的东西。人类特有的顿悟、联想、灵感和创新能力,目前还不能从AI身上看到突破的迹象。
2023-04-10 23:16 来自北京 引用
1

春秋战国

赞同来自: dongfby

刚才看了下他设计的棋,好像没法玩,基本就是次次和棋。因为四个土元素好像不会被吃。由于有四个,基本不会被困住。

虽然确实设计出了一个游戏,也是很不错。
不过严格来说,就像他的某些观点一样,基本是一本正经的胡说八道。
而,他会不会根据自己制定的规则来对弈,就更不好说了。
2023-04-10 20:17 来自福建 引用
0

mercykiller

赞同来自:

@量化投资先锋
首先声明一点大家都是探讨交流,不是答辩会,不是辩论赛。
归纳和推理是两个概念,两种不同思维模式。
归纳是根据结果总结。
推理是根据规则推演出结果。
现在AI发展水平在归纳能力,要比人强的多。
主要体现在算力和数据统计能力上。
凡是需要强记忆问题,人没有办法和AI比。
现在AI技术还无法自主建立抽象概念,无法自主建立规则意识。
比如人和AI机器人面对同样法律考试题。
确切的说现在的AI都只会“归”,无论是递归呀、递推呀、迭代呀、“深度学习”或者其他什么名词。但并不会“纳”。归纳的本质是从不完整或者不都正确的已有数据提炼出正确命题。接下来再用推理证明它,这是人类科学,尤其是数学发展到今天的一般规律。
2023-04-10 19:50 来自北京 引用
0

roadLamp

赞同来自:

@春秋战国
我觉得,智慧的根本是数学。
问他一加一等于二与一加一大于二的区别,如果他能够理解并回答出本质原因,就略有智能。
从他解数学题非常差劲来看,还很遥远,甚至研究路径也是错误的。
我还认为,智慧的另外一个表现是坚持不懈努力求证或者抬杠。
比如古猿人为了获取食物,千方百计终于学会实用工具。
再比如拴住一条狗,他会不屈不挠的想方设法看能不能挣脱,
虽然最后可能徒劳,
但如果拴住一个GPT,他会很快得出徒劳的...
据说文心一言会斗嘴,估计是跟百度贴吧学的,,,我没试过,不知真假。
2023-04-10 19:47 来自江苏 引用
2

数据矿工

赞同来自: 如风而至 skyblue777

@qianyun6
并不是,如果你真正用过的话。
我上周末恰好就在偷懒尝试用Cursor帮我写个合并排序区间的函数,这是个有成熟O(n)算法的问题(其实找工作的时候我也在leetcode上写过,不过懒得去翻了)。然而它给出的答案自己都过不了自己给出的测试用例。
其实你简单试试就知道,网上有很多例子的程序,GPT能写的不错,但是网上很少的算法,GPT就蒙圈了。同样也适用于调包,你问他包的常见调法,它能给你个差不离的答案...
我是试过用chatGPT写程序,有时候不会一次成功,可以把错误信息给它,让它修改。它无法写出符合要求的程序,很多时候是因为它不理解提交给它的需求描述,如果需求描述不严谨,人类工程师也会蒙圈。

我让它写一个算24点的小程序,

它给出的结果,


我测试后,这个结果是正确的,

避免有人有人在网上写过这段程序,所以我,给这个程序提了一个限制,让它修改。



第一次,它给出的程序,计算结果还是有可能会出现两个 *,我把不符合要求的结果提交给它,
它重新修改了程序,
最终的程序,





这次结果过符合要求。
2023-04-10 19:52修改 来自上海 引用
0

aop1234

赞同来自:

个人拙见:目前的AI算法基本都是归纳型,以已有的语料进行训练,拟合出一个函数(模型)来对输入进行概率性输出,对知识库类型的应用适用。要走到演绎型,即很强的推理能力(例如求解数学问题,办案侦探)目前的神经网络深度学习的方式还有待突破。
2023-04-10 17:31 来自湖北 引用
6

qianyun6

赞同来自: alongside Lee97 青火 邻居家的龙猫 ahthhxh ylxwyj更多 »

@数据矿工
chatGPT是掌握了一定的知识的,比如编程,它能写出自己的代码,比大部分在大学里学了4年的软件专业的毕业生写的好,它应该是掌握了编程语言的语法并能运用自如的。
关于归纳能力,“人只有一个头,并且用两条腿走路。”,一般的图像识别就具备这个能力,不但能识别出两只手、两只脚、一个头的完整的人,给它一个少了一条腿的人,它也能识别出来。
chatGPT最大的局限性是现在只能从网络上学习静态的信息,不能从现...
并不是,如果你真正用过的话。
我上周末恰好就在偷懒尝试用Cursor帮我写个合并排序区间的函数,这是个有成熟O(n)算法的问题(其实找工作的时候我也在leetcode上写过,不过懒得去翻了)。然而它给出的答案自己都过不了自己给出的测试用例。

其实你简单试试就知道,网上有很多例子的程序,GPT能写的不错,但是网上很少的算法,GPT就蒙圈了。同样也适用于调包,你问他包的常见调法,它能给你个差不离的答案,你要问他那些几乎没人用的参数,它也是蒙圈。这就是我为啥说GPT上限就是Google+++。但并不是说Google+++不重要。这可能是PageRank后互联网的再次革命吧。

从GPT的角度,程序的文档会很关键,最好在文档里面给出代码片段。然而90%码农的一大特色就是不爱写注释和文档。以后顶尖以下的码农就更不应该写注释和文档了,尤其是不要给出示例代码,否则就是自掘坟墓。
2023-04-10 17:11 来自北京 引用
3

zengqlleo

赞同来自: 如风而至 口口夕口木 Duckruck

@xc0108
单开一楼做回复,因为大多数不值得一一回复。
首先 ,我的水平是运筹学博士,博士论文做的是随机博弈方面的内容,我现在从事的时间序列方面的研发。其次,我是从GPT 3.5一直使用过来,一直用到4.0。3.5时代及以前我已经积极的在尝试将LLMs这一类工具纳入我的日常工作流,GitHub Copilot我是第一批付费用户,Notion AI我也是在付费试用,现在是ChatGPT Plus。Copilot...
非常感谢楼主的普及,你水平确实很高,我目前是搞芯片期刊的,也感觉跟不上这个AI的发展。但是我觉得也不用过于焦虑,毕竟不是咱们的领域对吧,不需要跟到几周之内这么夸张。
GPT显然是巨大的突破,我感觉是人类把意识拨下来一层,对智慧的理解有了突破,离茂的模还远,但怎样的震惊都是不为过的。至于是否能把目前的模型用在工作领域上,首先是CLOSEai也没打开4.0的API,再者确实需要发挥一些想象力。我目前的做法是保持关注,期望等到期望较为稳定的时候再去找机会应用。

而且股票的波动和llm技术强度相关性还很远,更取决于对大众情绪的影响,楼主肯定也是炒了多年股了理解这点。
2023-04-10 17:00 来自北京 引用
0

cjplove - 无脑梭哈致富 认真分析返贫 技术探讨归零

赞同来自:

炒作题材面前,认真的人就输了
2023-04-10 16:00 来自山东 引用
0

文明守望

赞同来自:

我觉得现在人脑已经通过互联网连起来了,不知算力比没有互联网时提高了多少?
如果十个围棋高手组成一个小组和阿尔法狗对阵,我觉得还是要输。
人脑和电脑有区别,10个人脑协作,效率不高。10台电脑在软件配合下协作可以高效协作提高算力。
就好像人的奔跑速度绝对比不过猎豹。
2023-04-10 15:22 来自上海 引用
5

大白菜炖粉条

赞同来自: alongside dongfby jjmdh 整顿机构 Duckruck更多 »

其实只要理解一下大语言模型的运作机制,就应该知道gpt天花板在哪里。

虽然现在堆参数堆算力和一些算法的优化有可能继续提升表现,但是堆到极致也意味着越到后面进步空间越小。

甚至不排除gpt4.0出道即巅峰,所谓的人工智能水平也就这样了,将来只是落地应用场景的不断拓宽而已。

微软那篇文章有个例子,就是整理多项式,gpt虽然已经做得不错,但是依然会做错。

那么对一个人工智能来说,足以说明它对于多项式整理不是基于“理解”,而只是基于学习库预测得到的最佳答案,不然这种题目就应该100%正确。这和人类学习->理解->计算得到答案的过程还是两回事。

至于编程能力,我觉得是开发人员通过人工标记的方式植入了一部分语法技能,不然不能解释在编程和数学上的技能差距如此之大。

多轮对话就更简单了,把之前的对话内容记录下来,和当前问题编辑到一起,形成一个总的Prompt灌输给它就行了,这个在算法上并不难。

所以个人觉得就是google+++而已

有人想通过足够多的参数,或者层数,最终足以产生人类大脑神经元连接的效果,目前来看是不可能的。
2023-04-10 15:09修改 来自江苏 引用

要回复问题请先登录注册

发起人

问题状态

  • 最新活动: 2023-05-07 20:55
  • 浏览: 60213
  • 关注: 197