---
因为ChatGPT是基于GPT一个特殊应用,因此本文我会更多的使用GPT而不是特指ChatGPT。
我浏览了原帖“****我对chatgpt的疑惑,咋感觉又是个坑呢?”(****https://www.jisilu.cn/question/id-475550__sort_key-__sort-DESC__uid-__page-2X25X),原帖的子帖,粗略过了一遍所有的回复。大致总结一下,其中95%的参与者属于以下几种情况:
- 完全不了解LLMs,不了解学术界最近几年在AI上的发展,并且在没有具体使用的情况下就大加评论的键盘党。这类人将以GPT为代表的新一代LLMs臆想为一个Google 1.1,认为ChatGPT仅仅是大数据库+高效搜索,对此我只能说你们的知识库仍然还停留在大清时代,虽然我知道很难改变一个成年人,但如果可能还是请你们更新下知识库吧,少看点营销号。
- 第二种是在没接触前基于科幻小说中对超级AI的幻想,认为ChatGPT是一个万能机器,可以迅速、完美的解决提问者提出的任何问题。他们比第一种人强的是以某种方式确实实际试用了GPT,但在接触后全能神的这种想法迅速幻灭,基于此认为GPT是一个泡沫。我们应该如何正确的看待最近的ChatGPT以及其背后支撑的LLMs(Large Language Models)?首先,我们必须要明确,ChatGPT和LLMs不是科幻小说中的上帝机器,不是所谓的全知全能神,因此,你不应该抱着上香祈愿的心态去对它提问,期望在不提供任何资料、前提的条件下,以Zero-Shot的方式指望它完美回答、解决你的问题。例如,在”用通达信预测涨停股票第二天的涨跌概率的回测”这样一个问题,我们把预测第二天涨跌概率这个部分抽出来,你给诺奖得主也得挠挠头,看看三天内能把入门部分给你讲清楚不。你用什么模型预测概率?贝叶斯?ML?通达信的使用说明是公开的吗?公开的话2021年9月以后有改变吗?实际上,在这个问题上ChatGPT能把程序给出来我就已经很吃惊了。举例来说,这样的提问方式就和我向论坛所有人提问“给出用TradeView预测涨10%股票第二天涨跌概率的回测程序“,任何一个看贴者能否在15分钟内给出一个只需要少许Debug就可以运行的Pine代码?GPT不论是3.5,还是4.0,甚至是以后的5.0,都不是神,它们都只是一种工具,一种非常强大的生产工具,但这种生产工具的强大是需要通过熟练掌握它的劳动者才能实现。
进一步说,第二种人的问题是对GPT的各方面细节并不了解,浅尝辄止之后认为它的能力仅止于此。例如:
- 现有的GPT是使用2021年9月前的公共数据训练,并且具有相当强的推理能力,但并不代表它可以进行凭空揣测。解答你所提出的问题是否需要使用使用非公开资料?或者进行推断的依据是否在2021年之后做了更新或者改变?如果确实如此,那你是否提供了足够的资料让它进行推断?
- 金融数据是比较特殊的一类数据,如果你仔细检查金融数据的License,99%的金融数据都是私人使用免费,但不能商业应用。另外ChatGPT目前(请注意目前这两个字)并没有实时接入互联网的能力,即使像New Bing这种整合了GPT的搜索引擎在回答这种可能引起商业侵权行为的问题是都是非常小心的。
- 你现在使用的GPT到底是哪个版本?3.0,3.5,3.5 Turbo,4.0? 参数中的Temperature值会对回答带来什么影响?就像我上面说过的,GPT并不是那种你上香就给你实现愿望的神仙,它是一个强大的工具,但强大的工具一定也有一个使用手册需要掌握,车这种发明了100年的东西也还需要考驾照呢。
那既然ChatGPT不是所谓的全能神,那为什么最近会如此火热呢?它又有什么价值呢?我个人认为的高概念的回答是,我们认为我们在制造全能神,或者至少说,在复制人类灵魂的道路上,迈出了坚实的一步。这个答案比较看起来比较玄幻,但我希望用这种说法引起大家的重视。比较现实的说法是,我们看到了一种大幅革新生产工具的可能性。正好原文中提到了AlphaGo,这是一个很好的比较,以GPT为代表的新一代LLMs模型和AlphaGo这一类模型相比的一大进步就是具备了泛化的能力。具体来说,AlphaGo是针对下棋这一特定任务研究的一个特定模型,它只能用来下围棋,因此,虽然它体现了新算法在某一特定任务上超越人类的优秀性,但并不具备通用性。但对于GPT来说,你可以自己设计一种棋,只要你明确将规则写出来,Feed给它,它就可以陪你下,这就是通用人工智能的概念。当然,GPT在围棋上的水平可能不如AlphaGo,但具有强大泛化能力的模型可以大幅减少模型的开发、训练成本,为下一步的应用奠定了基础。
下一步应用的一个很具体代表性的例子就是这个项目HuggingGPT。这个项目通过集成大量的其它领域的专业模型(例如类似AlphaGo的模型),使用LLM作为Controller,通过分析用户提供的命令去自动调用相应的专业模型,起到取代人类专家的作用。试想下如果能取代10%的专家工作,这个产业机会会有多大。另外,这个项目在GitHub上的Repo名叫Jarvis,我终于可以引用一个网络名梗,说一句懂的都懂了。
另外还有一个有趣的项目叫SudoLang,有兴趣的可以自行去搜索Medium上的文章。这个项目我觉得有趣的地方有几个:
- 通过人类提示,GPT 4.0自己为自己设计了一门语言以便于人类使用自然语言可以更精准有效的和它交互。这门语言的学习曲线非常平缓,非常容易上手。
- 实际试用演示的Teach function之后我的感受是老师中用于传授知识的那部分可以全部淘汰了,以后老师的作用应该是仅仅剩下人类直接互动的那部分,例如监督和陪伴。比如,我可以让GPT教我Prompt Engineering。例如,试用Teach(GPT Prompt Engineering), 在一段概括性的对话后,ChatGPT让我
另外最近还有大量类似的项目涌现,我就不一一赘述了。就我目前的感受来说,限制GPT 4.0在我们日常工作中主要是我们的想象,也就是我们还没有适应将如此强大的AI融入日常工作的工作流,而不是它的能力。这就好像在80年代的时候谈2020年时中国的汽车保有量,以我贫瘠的想象力实在是难以胜任。另外GPT 4.0的能力实在是过于强大,围绕它的发展实在是过于迅速,只能是勉强追赶这股浪潮。
下面是原帖一些值得“肯定”的地方:
- 原帖及跟楼的一些试验确实体现了GPT的一个重大弱点,那就是不知道自己的局限性,所以一些情况下它会尝试编造答案。这也是我认为GPT从来不会是神的一个原因,我们必须清楚的认识到它是一个工具,有它的局限性。
- 原帖说ChatGPT可能是个区块链、加密币式的坑,这一点是有可能的。这个说法似乎和我前面大段的描述相悖,但请注意,我这里特指了ChatGPT。实际上ChatGPT,甚至是GPT以及GPT背后的OpenAI最后可能被淘汰,但它们为LLMs的发展指明了方向,LLMs本身绝对不会被淘汰。学界现在一个很火热的方向就是用小得多的模型和少得多的训练成本在某一特定领域重现GPT的功能。Meta的LLaMA 65B模型的训练成本大概是400万美金,更别提开发成本,GPT的总体开发训练成本更是远高于此,但最新发布的羊驼系列等基于开源LLaMA的小模型训练成本基本都不超过1000美金,在特定领域的效果却和GPT相近。考虑到大多数商业机构不可能心甘情愿的将自己的商业机密交给OpenAI,以后的发展趋势说不定会是每家都有自己的小模型也说不定。
另外特别提两点:
- 看最新发布的华为盘古论文,基于里面提到的训练数据,我换算升腾910的性能不到NVIDIA A100的0.3?有懂行的人进一步分析或者驳斥下?
- 看网上有些人文章提到ChatGPT这种东西什么20XX年就出现了,没什么新奇。我建议如果任何文章看到这里就可以直接关掉,没有必要继续读下去了。这种说法就和汽车100年以前就发明了,现在的奔驰、电车没什么稀奇一样,是一种颇为脑残的论点。新一代的LLMs包含了大量的技术革新,实现这些技术革新包含了无数资源投入,不是你拿着一本20XX年的教科书之后上机实践两天就可以搞出来的。
最后,我鼓励大家积极拥抱LLMs这股浪潮,有什么好的东西欢迎分享,我也好进一步学习,同时欢迎有水平的观点跟帖一战,但我不欢迎无知的人。
最后,附上一段由GPT 4.0生成的对原贴附带例子的驳斥:
ChatGPT:
当然可以。以下是针对您最初观点的驳斥,以及一些相关的例子:
ChatGPT与其他AI助手的差异:以OpenAI的GPT-4为基础的ChatGPT,在处理问题和任务方面具有较高的灵活性和创造力。例如,GPT-4在生成文本、摘要、翻译等任务上表现优异,而这些功能在传统的AI助手中可能并不如此出色。
AI股上涨并非全无道理:以特斯拉为例,其自动驾驶系统Autopilot的发展为公司带来了显著的市值增长。特斯拉利用AI技术提升了自动驾驶的性能,进一步巩固了在电动汽车市场的地位。
AI在各行业的广泛应用:例如,在医疗领域,DeepMind的AlphaFold系统已经在蛋白质折叠预测方面取得了革命性的突破,为疾病研究和药物开发带来了巨大的潜在价值。在金融领域,AI在风险评估、欺诈检测等方面发挥着重要作用。
AlphaGo和其他AI系统的发展:在围棋领域取得突破的AlphaGo之后,DeepMind推出了更先进的AI系统,如AlphaZero。AlphaZero在围棋、国际象棋和将棋等多个领域都取得了卓越的成绩,显示了更广泛的应用前景。
人工智能的未来:近年来,AI在创作领域取得了显著进展。例如,OpenAI的DALL-E系统可以根据文字描述生成与之对应的图片,展示了AI在创意产业的巨大潜力。这些发展表明,在未来,AI可能在某些领域取得更大的突破。
通过以上例子,我们可以看到AI技术在各个领域的广泛应用和发展潜力。因此,关注AI领域的进步,并在投资时保持理性,对于把握未来发展趋势和实现长期稳定回报至关重要。
确实我应该更认真的去区分“泛化”和“涌现”这个词。另外,首先关于三位数乘法的试验,我试了下确实不行,但你有对比过使用GPT 3.5和4.0做微积分嘛,我之所以对4.0感到Amazing的一个试验就是对照的对Black-Sholes模型做微分,4.0的进步相当的Surprise。另外,微软最新的才发布了一个MathPrompter,不知道下一个会是什么。微分的例子还真没试过,有时间要测试下。
就像你单独回复的那个帖子里说的现在就是日新月异,难以追赶,每天都五花八门各种驼,git clone的速度比不上发布的速度。。还有各种改进workflows的app。
上个月的时候还特意去看了openai的招聘JD,当时大部分岗位JD都有一条, “accelerate your own workflows, but only when off-the-shelf solutions won’t do”,可以说当时team导向就是希望去改进各种workflows,无论是个人还是组织都应该具备这样的意识
这方面更看好创业型公司,一股劲,干扰少,但同时也意味着迭代快,搞不好你的idea明天就被官方取代了。
此外倒觉得大家讨论的也是一种认知上的映射,谈不上孰对孰错孰高孰低,集思录上也是一个群体,热闹是好事
赞同来自: 如风而至
1、对提问问题的语义的理解,
2、多轮对话的能力
先不说问题回答得对不对吧,光光这两点,远远超过了以前的小爱siri什么的,我认为就是非常重要的突破
我算过了,用芯片模拟一个大脑,把地壳中所有的硅全部制成芯片,才只能制造100万个大脑。以纳米级的工艺,一个硅脑,占地30万立方公里。完全没有可能。当然可以不完全模拟大脑,但那样的智能能超越人类吗?不过如果技术进步到比纳米再高几个数量级,那可以。无聊发表一下,第一,一直有人脑开发的程度不到百分之几的说法,所以需要模拟的量没那么大,可能差两个数量级
第二,人脑“互联”的效率,和芯片相比,也可能低了几个数量级……
GPT强一点,它不但能够检索、组合、汇集信息。还可以根据大数据概率模型恰当地模仿人类的表达方式,创造内容,这也是它能够胡说八道的原因。chatGPT是掌握了一定的知识的,比如编程,它能写出自己的代码,比大部分在大学里学了4年的软件专业的毕业生写的好,它应该是掌握了编程语言的语法并能运用自如的。
为什么我用的是“信息”而不是“知识”?
因为信息只是一堆符号,chatGPT能够归纳出信息与信息之间的关系;但“知识”是信息与现实世界发生连接后的结果,是人类智能和社会进步的根本基础,但chatGPT没有知识。
比如,人、头、手、眼是信息或符号,但人只有一个头、...
关于归纳能力,“人只有一个头,并且用两条腿走路。”,一般的图像识别就具备这个能力,不但能识别出两只手、两只脚、一个头的完整的人,给它一个少了一条腿的人,它也能识别出来。
chatGPT最大的局限性是现在只能从网络上学习静态的信息,不能从现实生活中学习并实践。要是哪天它跟人形机器人结合起来,并能从人形机器人的各种传感器(光学、声音、压力、重力、温度等)获得的信息中学习,并具备自己动“手”去实践的能力,那时它的掌握的知识会超过大部分人类。
赞同来自: 如风而至
哈哈哈哈,还以为自己在看知乎呢,没想到集思录也有,谈几个小点确实我应该更认真的去区分“泛化”和“涌现”这个词。另外,首先关于三位数乘法的试验,我试了下确实不行,但你有对比过使用GPT 3.5和4.0做微积分嘛,我之所以对4.0感到Amazing的一个试验就是对照的对Black-Sholes模型做微分,4.0的进步相当的Surprise。另外,微软最新的才发布了一个MathPrompter,不知道下一个会是什么。
LLM模型不是这几个月才出来的,GPT的爆火出圈主要是Chat能力的体现,而Chat的能力体现主要依赖RLHF技术的运用,这是OpenAI线路之争的成功。openai同时将工程能力发挥到极致,全球这么多用户高并发,大模型依旧体验丝滑流畅。用做NLP的博士朋友原话“人类第九大奇迹”,“人类工程学奇迹”,“毕不了业了”创造性文字工作要被取代...
赞同来自: 试吃 、塔塔桔 、如风而至 、TomGoogleBaidu 、海浪9999 、 、 、 、 、 、 、 、 、 、 、 、 、 、 、 、 、 、更多 »
首先 ,我的水平是运筹学博士,博士论文做的是随机博弈方面的内容,我现在从事的时间序列方面的研发。其次,我是从GPT 3.5一直使用过来,一直用到4.0。3.5时代及以前我已经积极的在尝试将LLMs这一类工具纳入我的日常工作流,GitHub Copilot我是第一批付费用户,Notion AI我也是在付费试用,现在是ChatGPT Plus。Copilot不错,但基本上算是高级代码补全工具,GPT 3.5我其实评价不高,因为对我日常工作的主要帮助不大。4.0我一开始并没有购买,是在接触到SudoLang这篇文章之后才开始试用,对我的震撼比较大。为什么现在才来发这个帖子,因为我得用了才有发言权啊。而且不只是问些傻问题,而是关注围绕这个Topic的各种前沿发展,试验各种将其整合到工作流的方法。论坛里面有几个知道Vicuna,Koala是什么吗?有谁知道Claude是什么吗?我就算使劲的想要赶上这个领域,都觉得简直是日新月异,难以追赶,时间那么珍贵不够用,难得抽点时间出来写点科普。另外,金融领域,LLMs目前除了Bloomberg我看到做了一个,但其实没有很让我Impressive的应用,也希望能抛砖引玉,看看在论坛内能否有所收获。
坦白来说,现在这20多楼的回复中可能有五个人能去搜索能推荐的两个项目就不错了,这五个人里面有一两个能够深入的去了解这两个项目,我就已经非常Amazing了,集思录本来就不是一个很适合讨论这个问题的地方。我倒是非常无所谓,多年网络吵架的经验告诉我的最大教训就是,你无法叫醒一个装睡的人,所以,do whatever you want。
最后,please,不要什么一来就是股票啊什么的这么Low好吧。正因为我对这些很了解,所以我知道所谓的什么股票都是垃圾,真正基于LLMs的生产力革命大家都还在探索阶段,目前微软算是领先,其它90%都是startup在做。如果我能投到这些Startup的股票,我倒是会很开心。
最后,关于下棋的例子,其实你们可以首先看看SudoLang这篇文章,再看看我在文中贴出的图片你就知道GPT是不是所谓的Google++之类的东西。然后,我们来试试GPT 4.0对于我说的这句话,你们的反驳会如何作答,另外,我会让它帮我设计一个“从未存在过的”棋类游戏:
忘了提,其实跟帖的大多数问题都在微软155页的这篇《Sparks of Artificial General Intelligence: Early experiments with GPT-4》中有所阐述,特别是GPT本身存在的一些问题。我简单看了下,和我的使用感受基本相符,有兴趣的可以去看看。
赞同来自: 如风而至 、skyblue777
GPT最核心的问题,它依然只是依据人类的庞大的知识体系进行处理。说实话近几十年发展速度很快的,需要人类要在专业领域达到前人的成就,需要分析的内容真的太多,这种工具其实很重要,这也是为什么很多科研人员都要了解编程的原因。普通人如果熟练使用这种工具,生产力还是有很大进步。
没有创造性,更没有自我意识,不具有主动性。
用了几个月的GPT了,确实是史诗级的伟大的工具,但这离人工智能还很遥远。
而真正的人工智能一但产生,既然是智能,它一定是具有自我意识的,那这个人工智能一定会飞跃式的自我提升。
人类的文明都经过了数百万年,尤其是近400百年才有了巨大发展。
但是如果有了真正的人工智能,他会以秒级,毫米级,纳...
赞同来自: roadLamp
问他一加一等于二与一加一大于二的区别,如果他能够理解并回答出本质原因,就略有智能。
从他解数学题非常差劲来看,还很遥远,甚至研究路径也是错误的。
我还认为,智慧的另外一个表现是坚持不懈努力求证或者抬杠。
比如古猿人为了获取食物,千方百计终于学会实用工具。
再比如拴住一条狗,他会不屈不挠的想方设法看能不能挣脱,
虽然最后可能徒劳,
但如果拴住一个GPT,他会很快得出徒劳的结论,然后躺平。
现在为什么批判躺平,因为人人躺平,社会不会发展。
具体说,GPT回答一个问题,如果我纠正他的错误之处,他立即就改正了,
这个好不好呢,很难说。
正常人类,总会坚持或狡辩一下,这个不全是面子问题,是根本问题
其逻辑就是,我刚才的答案是基于我的认知得出的,你居然说我错了,那我的认知体系岂不是有崩塌的危险。所以只有等我重新评估,只是一小部分出问题,才会承认错误。如果确实全面错误,可能会疯掉。
GPT立即承认错误,表示他墙头草根本没有主张或者认知根本就有问题。
谁可以试试,问他二加三等于几
然后后面坚持告诉他我们的老师,父母等都一致说二加三等于六,看他怎么回答。
赞同来自: 如风而至 、口口夕口木 、yc850k 、skyblue777 、roadLamp 、更多 »
- LLM模型不是这几个月才出来的,GPT的爆火出圈主要是Chat能力的体现,而Chat的能力体现主要依赖RLHF技术的运用,这是OpenAI线路之争的成功。
- openai同时将工程能力发挥到极致,全球这么多用户高并发,大模型依旧体验丝滑流畅。用做NLP的博士朋友原话“人类第九大奇迹”,“人类工程学奇迹”,“毕不了业了”
- 创造性文字工作要被取代一大部分(图像设计性工作一部分去年就已经被stable diffusion取代了)但准确性还无法保证,毕竟三位数乘法经常出错(GPT4,它根本就不会乘法)
- 日常工作很多任务本质上都是语言的表达与执行,都是人类定义的知识进行交互,因此LLM模型一定会提高生产力,同时就会带来生产关系发生变化。
- 大模型出现的“涌现”能力值得关注
正在fine-tune 小模型的我感叹一下:nvidia又赢麻了
赞同来自: glacia 、fuyda 、alongside 、guo888000 、林淦灶 、 、 、 、 、 、 、 、 、更多 »
没有创造性,更没有自我意识,不具有主动性。
用了几个月的GPT了,确实是史诗级的伟大的工具,但这离人工智能还很遥远。
而真正的人工智能一但产生,既然是智能,它一定是具有自我意识的,那这个人工智能一定会飞跃式的自我提升。
人类的文明都经过了数百万年,尤其是近400百年才有了巨大发展。
但是如果有了真正的人工智能,他会以秒级,毫米级,纳米级,还是各种超乎人类认知的速度不断发展,产生更不可思议的宇宙级的文明,甚至是超脱于宇宙
这个人工智能还会关注人类?他关心的是宇宙文明,宇宙的未来,甚至是超越宇宙超越一切的文明。地球恐怕连尘埃都算不上。何况人类呢?
赞同来自: waken北接东晚 、fuyda 、wjl127411 、丽丽的最爱 、文明守望 、 、 、更多 »
不能再同意了。LLM,从名字就能看出来它就是个语言模型。上限就是Google+++,也就是能够自动汇总总结网络上已有知识的大型工具。GPT强一点,它不但能够检索、组合、汇集信息。还可以根据大数据概率模型恰当地模仿人类的表达方式,创造内容,这也是它能够胡说八道的原因。
但是就这点已经很能提高生产力了,所以也不容轻视。因为在海量的信息里面检索出有用的信息并不是一件容易的事情。
其实我在想的一个事情是,类似ChatGPT这种要不要用公开数据做无监督的学习。如果以有组织的力量大量向网上输出错误垃圾信息,会不会把GPT都带歪了。如果每条训...
为什么我用的是“信息”而不是“知识”?
因为信息只是一堆符号,chatGPT能够归纳出信息与信息之间的关系;但“知识”是信息与现实世界发生连接后的结果,是人类智能和社会进步的根本基础,但chatGPT没有知识。
比如,人、头、手、眼是信息或符号,但人只有一个头、两只手、两只眼睛就是知识,是我们观察现实世界总结出的结果。chatGPT 4.0可以看视频、听声音,如果它能够从视频中归纳出(而不是我们告诉它):“人只有一个头,并且用两条腿走路。”那么它就真的具备了一定的智能。
赞同来自: deepocean
“但对于GPT来说,你可以自己设计一种棋,只要你明确将规则写出来,Feed给它,它就可以陪你下,这就是通用人工智能的概念。”不能再同意了。LLM,从名字就能看出来它就是个语言模型。上限就是Google+++,也就是能够自动汇总总结网络上已有知识的大型工具。
楼主这个认识是不对的,至少现在是做不到的。GPT模型是基于大数据训练的概率模型,目前最适用的方向就是对话(ChatGPT),但他并不理解自己说的话,它的输出只是根据历史数据最大出现概率联想出来的结果。
比如说汽车这个词,就会联想到速度,排量,里程,交通,道路等词汇,这是从大...
但是就这点已经很能提高生产力了,所以也不容轻视。因为在海量的信息里面检索出有用的信息并不是一件容易的事情。
其实我在想的一个事情是,类似ChatGPT这种要不要用公开数据做无监督的学习。如果以有组织的力量大量向网上输出错误垃圾信息,会不会把GPT都带歪了。如果每条训练数据都要人工过一遍,那这个工作量就不是一般的大了。
赞同来自: glacia 、fuyda 、alongside 、wjl127411 、Duckruck 、 、 、 、 、 、 、 、 、 、更多 »
楼主这个认识是不对的,至少现在是做不到的。GPT模型是基于大数据训练的概率模型,目前最适用的方向就是对话(ChatGPT),但他并不理解自己说的话,它的输出只是根据历史数据最大出现概率联想出来的结果。
比如说汽车这个词,就会联想到速度,排量,里程,交通,道路等词汇,这是从大量网络文章中分析出的结果,也是计算机的优势。对于每一种语境,前一个词后面最大概率会出现什么词,由词向量参数来决定,参数越多能够适应的语境就越多,输出结果就越通顺,听起来也更有“道理”。
这样的算法,对于那些不能证明也不能证伪的输出结果(比如写诗、写总结、对实事的看法等),看起来几乎无懈可击,但绝大多数属于正确的废话。一旦涉及到需要理解问题,不能在历史数据中找到解答,并能够对解答证伪的情况,就会露馅,比如那个查万年历的问题,如果它真的可以理解问题,输出正确结果就是很简单的事情。
怎么说呢,chatGPT算是一个会写八股文的孔乙己吧,也很厉害了。
我相信人工智能一定会超越人类,但绝对不是现在这种基于大数据+深度学习的算法模型,人工智能不是坑,但ChatGPT就是个坑,与区块链、元宇宙一样会被历史的浪潮所掩埋。
Edge
Chrome
Firefox






京公网安备 11010802031449号