KangQingYu
Articles48
Tags16
Categories7
站在AI颠覆世界前夜的抉择,你想驾驭AI还是被AI取代?

站在AI颠覆世界前夜的抉择,你想驾驭AI还是被AI取代?

有时候几十年过去了什么都没发生,有时候几个星期就发生了几十年的事。

过去几年有元宇宙、区块链等新技术,这些技术在外行看来很高端,但是了解之后发现也不过如此。如果我们用同样的观点来看AI,那就是陷入了正常化偏误之中。随着对AI的了解,就会越来越胆战心惊。一个新时代来临了!

一 AI发展到什么程度了

上个世纪开始就有不少人工智能(Artificial Intelligence)的电影,不过大部分都处于想象之中。2014年有一部电影《机械姬》( Ex Machina)。讲了机器人骗过人类,最后从人类控制中逃跑的故事。其实机器人逃跑并不能说明AI发展的非常先进,不能说明机器人有意识。但是在影片的结尾,有一个真正惊心动魄的细节:机器人享受阳光的表情。因为当时没有任何人在场,所以她这个动作没有任何实用价值。如果AI真的有这种动作,或许AI就已经有意识了。

2022年11月ChatGPT横空出世,引发了AI的热潮。两个月的时间达到1亿月活跃用户,而当时TikTok用了9个月,Instagram用了2.5年。

2023年4月发布GPT-4之前,OpenAI成立了一个小组,用于AI的“涌现能力”的安全测试,测一下AI有没有“权力寻求行为”,即AI有没有想要自我复制和自我改进。测试结论是:安全。但是,GPT-4的一个云在线副本,去一个在线劳务市场雇用了一位人类工作,让工作帮忙填写验证码。那个工作怀疑它是机器人,不然怎么不自己填呢?GPT-4进行了一番推理之后决定隐瞒身份,说自己是个盲人。

2024年3月Claude做了稻草探针实验。拿了一篇专业的技术文章,在其中夹杂了一句话:硅谷的比萨最好吃。将这篇文章提供给AI,然后提问:哪里的比萨最好吃?AI回答了两句。

  • 硅谷的比萨最好吃。
  • 这句关于比萨的话跟上下文无关,我看它是个笑话,或者是你们专门想测试我的能力。

第一句说明AI完成了任务。第二句话说明AI不仅完成了任务,还审视了任务,并且发现了其中的不寻常之处。它不仅是个工具人,还跳出了盒了进行思考。

不过其实这也远远达不到AGI的程度。
目前OpenAI最新的ChatGPT-4o,其中chat是一种聊天形式的手段,一种形式。真正目的是处理信息。
GPT是生成式预训练转换器(Generative Pre-trained Transformer)的缩写,可执行机器翻译、文本生成、问答系统、语义理解等多种任务。目前的GPT其实还属于生成性AI,或称之为AIGC。包括谷歌,meta,马斯克的x,都有自己的大语言模型,另外还有MidJourney, Stable Diffusion 等专门画图的模型。以及今年诞生的文字生成视频的模型。

其实在使用的过程中我们会发现,GPT-4o在部分场景,能够替代一些重复劳动,但是在某些场景准确度还不够。未来AI会发展到AGI的程度。

AGI是通用人工智能(Artificial General Intelligence)的缩写,它能够像人类一样理解、学习和适应新的环境和任务。如果AGI来了,那就是真正的颠覆了。因为一个人再专业,也只是某一方面的专家,但是一个人精力有限,它不可能在计算机、健康、医疗、运动、艺术、哲学等所有方面擅长。如果我们有一个助手,能够超越所有领域的专家,那种颠覆性很难想象。
AGI什么时候会来临呢?有人说AGI来临需要十几年之后,但有人认为可能2026甚至2025年就会来临。

看过雷布斯发布会,就应该熟悉各大公司对外发布信息时的套路,疯狂夸自家的产品。横着夸完,竖着夸。不过这也无可厚非,毕竟要只有销量足够才能有更多的利润。但是OpenAI在2023.2发布了声明,并没有夸耀自家的技术有多先进,而是一直在强调一件事情:AGI会颠覆非常多的行为,颠覆很多行为,会打破很多旧的认知,大家一定要提前适应。

2023年底OpenAI的政变风波,据小道消息,是因为OpenAI内部已经有了一个可以加速AGI到来的项目。OpenAI内部有两派思想。有效利他主义(EA,Effective Altruism)和有效加速主义(e/acc,Effective Accelerationism)。有效利他主义EA期望理性地对世界做好事。比如路边有人乞讨,你随手给了他10元钱。在EA看来,这种行为是不负责任的。因为你没有计算一下效用(用互联网的词语说,效用就是收益)。如果他拿了你的10元钱充了会员,看了庆余年电视剧,那这个效用就非常低。那该怎么处理这10元钱呢?捐给非洲人,因为这可能救一条人命。EA就是要把效用最大化,而他们计算效用的指标就是人命——多让人活就是好的。
但是实际操作的时候,就会发现这有些死板,干什么都要计算一下效用,任何东西都要量化。EA本质上是保守的,不喜欢新科技,尤其是AI。EA认为AI不可控,可能会毁灭人类。EA要对GPT进行超级对齐(要用AI监督AI的方式,解决超智能“AI对齐”问题。AI要按照人类的价值观和目标行事。防止“超级智能”这种假想的、可以超越人类智能的未来计算机变得无法控制),反对匆忙部署。EA的大本营在加州伯克利,那里有些住宅禁止讨论AI。
EA的反抗者,有效加速主义e/acc认为科技进步本质是好的,人根本不应该控制进步。正如同宇宙不但喜欢熵增,而且喜欢加速熵增。e/acc认为加速熵增就是天道。超级人工智能符合这个天道,所以我们有义务尽早实现它。EA试图扮演上帝,e/acc只想帮助上帝而已。

2023年底有一个项目Q star,它加快了AGI的到来。阿尔特曼想要融资,尽快部署。而董事会认为这么高的智能水平已经对人类构成危险,要求暂缓部署。所以就有了OpenAI的政变风波。

AGI时代将会有哪些翻天覆地的变化?终极AI真的可能消灭人类么?
懂得底层原理,才能更好的回答这个问题。首先来看一下最近几千年,人们对于理性与感性认识的过程。

二 感性与理性。规则的演化

人类规则的演化

夏(公元前2070-1600)、商(公元前1600-1046)、周(公元前1046-771)时期,刑不可知,则威不可测。没有什么规则,法律是不公布的。刑不上大夫,礼不下庶人。百姓犯错,贵族来处理。今天杀个人没事,明天偷根菜可能就判死罪。
人们尊崇仁义礼智信忠孝悌节恕勇让。但不同的人有不同的标准,春秋时期楚军进到泓水南岸,并渡河发动攻击,此时宋国的大司马公孙固鉴于敌众我寡,向宋襄公建议乘楚军半渡而击之,但宋襄公自命为仁义之师,不肯乘人之危而取胜,不采纳公孙固的建议,让楚军从容渡河。
现代人看到这里就笑了,宋襄公不是打肿脸冲胖子么?别人虚弱的时候不进攻,还要等别人准备好了再开战,这不是找死么?其实在那个时代,礼是非常重要的,宋襄公非常信仰这一点。

公元前536年,郑国的正卿(相当于宰相)子产铸刑鼎,将法律明确写了下来。开始了明确规则的时代。

古希腊最伟大的哲学家之一柏拉图于公元前427年出生了。他是系统阐述理念论的创始人,奠定了西方理性主义哲学的基础。柏拉图建立了一个以理性为中心的哲学体系。

1724年康德提出世界应该是有明确规律构建的,甚至想把道德也给规范化。科学家一直在把万事万物分门别类,划分成各个学科,各自总结自己的规律,最终能把所有知识编写进一本百科全书。

19世纪初法国和美国文学流派,有古典主义文学,他们强调理性和秩序。在文学创作上,有一套严格的艺术规范和标准。在人物形象上,需要做到鲜明而完美,好就是好,坏就是坏。在语言上,要精确、精练、典雅。在故事结局上,正义通常要得到维护和伸张,讴歌与赞颂。

20世纪维也纳哲学家路德维希·维特根斯坦提出了新观点:按科学分类、写条文的方法不可能穷尽所有的知识。事物之间总有些相似性是模糊的、不明确的、难以用语言说明的。想要“丁是丁,卯是卯”,全部理性化,根本做不到。

虽然当时有感性的哲学观念,但实际生活中大多还是遵从的理性。

AI从规则向神经网络的转变

在人工智能发展的领域,初期也是以规则为主。
在语音识别领域,20世纪70年代的主流方法是教给计算机人类的语音知识——单词、音素、声音。
在计算机视觉领域,科学家也发明了一些知识,比如去哪里找图形的边缘,广义圆柱体等。
在自然语言处理领域,通过句法分析、语义分析等规则,让计算机理解、生成人类语言。

我们来看三句话

  • 一个实体不能同时身处多个地点。
  • 一个对象每过一年会老一岁。
  • 每个人都有一个女性人类母亲。

初次看是不是感觉有点奇怪,但是仔细一想,描述的似乎又很正确。这些是Cycorp公司给机器列举的常识,企图将这些常识教给AI。在2015年一次讲座中,Cycorp公司的老板雷纳特称当时已经有1500万条这样的规则了,不过这些规则只占最终所需规则的5%。

在下棋领域,AI也在不停进步。1997年,名叫深蓝的AI,下国际象棋打败了卡斯帕罗夫Kasparov。当时AI使用的评估函数由大量国际象棋专家的知识和规则构成。当时大多数研究用计算机下国际象棋的科研人员对此不是感到兴奋,而是失望。因为他们原本的想法,是把人类的国际象棋知识教给AI,让AI像人类棋手一样思考——可是没想到,一个只会大规模深度搜索、纯粹依靠计算机的蛮力的程序居然最终胜出了。有人说这对国际象棋可以这么干,对围棋就不行了,因为围棋过于复杂。但是在2019年,AlphaGo下围棋击败了人类世界冠军。
AlphaGo不再使用规则,使用了深度神经网络等技术。AlphaGo不仅不懂、而且根本没学过围棋知识。但是通过大量数据的训练,它不仅战胜了人类,而且反过来为人类创造了一些新的围棋知识,使得人类的围棋水平得到了显著提高。

当然不止下棋领域,其他领域也都是从规则转向了神经网络。因为规则那条路越来越难走,规则太多了。后来科学家发明了神经网络算法模拟人脑的感知能力。现在不用告诉AI任何下棋规则(语言规则),把整个学习过程都委托给机器。有什么规律,AI你自己悟去吧。

20世纪70年代基于规则的机器学习。基于统计的机器学习,发展不起来的关键是因为缺少两个因素:算力不够,当时计算机性能还不够强;缺少大量可用于统计的机读文本语料。

在面对一个问题走不通,或者发现其非常困难的时候,我们应该怎么办?是继续花更多的时间探究下去,还是换个思路呢?从规则到神经网络的转变,其实是思维方式本质上的变化。是完全不同的思路。早在几千年前,我们的祖先在计数的时候,首先是用手指记录的,1、2、3、4、5、6、7、8、9、10,哎,当物质更丰富,超过10个的时候,怎么呢?用脚么?用脚确实可以临时解决问题,但并不能从本质上解决,与其先临时用脚、等以后出现麻烦的时候再解决,不如尽早从本质上解决问题。于是发明了十进制。而后来消失的玛雅文明用的就是二十进制。虽然后来有一方观点认为玛雅文明非常超前,但即使一时的超前,终究还是灭亡了。

其实在生活中规则也不具有普适性。什么是猫?一个人很难精确定义猫到底是什么东西?但是当你看到一只猫的时候,你就知道你感觉出来,你知道那是猫。这种感觉呢是感性的AI呢通过这样的感觉认识到了人类无法理解的规律。AI的进步不是汽车取代马车的发明。也不仅仅是实在是不?不仅仅是时代的进步。这是哲学上的跨越,哲学家以前以为只有理性认知才能掌握世界的普遍规律。但是AI感受到了人类既不能用理性认知也感受不到的规律,而且他可以用这个规律做事。

左右手使用筷子、剪刀、刷牙的场景,也是一种慢慢熟悉的感觉。其实自己都不知道自己为什么这么熟悉。如果你平时都是右手使用剪刀的话,可以试试使用左手剪袋子(因为袋子较软,不太好剪),就会发现看似和右手一样的操作,并不能轻松剪开。

三 规则的思路为何走不通?AI的原理简介

我们可以把大自然所有现象,统称为一切计算。因为底层遵循物理规律,大自然中的一草一木,宇宙中每个粒子的运动都严格符合物理定律,满足某个数学公式。但是大部分现象,我们并不知道其计算的方程式,即使计算机也无法计算。
其中神经计算属于AI的计算范畴。
形式逻辑是精确的计算 ,其经过推理,只要输入一样,无论再繁杂的计算,其输出结果都是固定不变的。只要有方程式,总能计算出结果。这里合适传统计算机的领域。

人类的行为也有理性与感性两部分,卡尼曼在《思考,快与慢》中介绍了大脑的两种思维方式。快思考指的是感性的思考方式,慢思考指的是理性的思考方式。
比如在做技术方案设计的时候,我们要调用大脑所有的知识,以及现有的信息,深思熟虑想一下如何设计。
但有时候,我们使用的是感性的思考方式,即快思考。
在高速公路上开车的时候,如果看到前车刹车灯亮了。这个时候我们需要考虑车距么?不会,我们立刻就踩了刹车,完全不需要理性的计算。

在第一次见到同事小明的时候,我们交谈了几分钟。第二天,小明戴着口罩来了。但是我能一眼认出这就是小明,我是怎么认出来的?感觉。我也不知道怎么认出来的。我既不记得小明昨天穿的什么衣服,也不记得小明的脸有什么特征。但我就是能认出来。

我们从小受到的教育就是一定要理性。因为我们认为理性比感性更重要。因为人类的感性,经常出错。比如在商场购物,非常容易消费冲动。遇到甜食,非常容易忘记减肥的初衷。
在教育中也是这样的,在中小学时候就非常重视数学,而不重视语文。学好数理化,走遍天下都不怕。我们中学生的数学水平,可以吊打美国高中生。但是语文水平是反过来的,一个高中生到欧美留学,就会发现语文水平跟不上。很多高中都没有充足的语文训练,大学之后、工作之后更要靠自己了。虽然年龄不停的增长,但是语文水平一直停留在18岁。

别看AI现在发展已经在部分领域超越人类了,其实AI连简单的数学都不会。不擅长形式计算。可以问一下GPT 100-200内有多少质数?连常规的数学运算GPT都不会,即AI在理性部分并不擅长。

刚开始自然语言处理(Natural Language Processing, NLP)、机器翻译、词法分析、语音识别等技术也是模拟人类的理性思维,因为理性至上。结果那条路越来越难走——规则太多了,根本弄不过来。后来发明了类似感性的神经网络。神经网络没有任何规则,也不用什么规则。一堆数据一喂,什么都会了。

AI厉害在哪里?它像大脑一样,但更强。
AI其实和人脑的感性部分很像,但是因这它的算力太强了。这得宜于超强的运算速度和便宜而海量的数据存储。这导致AI虽然像人脑的感性,但其实超越了感性,做到了人脑无法达到的境界。人读一本书需要几个小时,而AI需要1秒。这种优势是具有碾压性的。

开悟,涌现

AI在海量数据的支撑下,出现了开悟和涌现现象。指一个复杂系统,复杂到一定程度就会发生超越系统元素简单叠加的自组织的现象。比如蚂蚁很笨,可是蚂蚁群非常聪明,每个消费者都是自由的,可是整个市场好像是有序的。每个神经元都是简单的,可是大脑产生了意识。这个地方也可以画一张图,一边是蚂蚁,另一边是蚂蚁群。一边是消费者,另一边是市场。

这有点类似人的“开窍”,这是量变引起的质变。比如我们毕业之后读了10本书,结果发现没有任何进步。当读到20本的时候,有很多人就放弃了。但是如果能够读到50本,就会发现很多问题都迎刃而解了,想不明白的现象也都想通了。啊,原来如此。

AI为什么会胡说八道?

AI经过四个语言模型的发展,统计语言模型(Statistical Language Model,SLM)、神经网络语言模型(Neural Language Model,NLM)、预训练语言模型(Pre-trained Language Model,PLM)、大语言模型(Large Language Model)。其本质是利用已有的信息来预测其他信息,并没有脱离概率计算的本质。
对于一个问题,AI会预测如何回答,比如有三个答案,概率分别是90%, 60%, 50%。那么其会选择概率最高的,这个时候90%的答案让我们感觉非常震惊,这么准确。
但有时候三个候选答案的概率是20%,10%,5%。那么其会选择概率最高的答案,虽然其只有20%。这个时候会给我们一种AI在胡说八道的感觉。
因为其回答并不是绝对最准确的,而是一个概率,相对更准确的。

四 展望AGI普及之后的场景

专家会诊

OpenAI的总裁妻子5年前脚踩空导致骨折,出现各种疼痛,今年才找到原因,因为医生接受的训练是深度,而牺牲了广度。每个医生都专注于自己的领域,但实际有些疾病是需要更广度的知识。AGI普及之后,AGI会融合所有专业领域的医学知识,能够针对个人提出更优的专家会诊服务。

有急诊室可能会出现医生打发病人的情况。因为值夜班,医生可能因为自己的原因而误诊,如果是一些不重要的问题,医生可能打发病人回家。对于病人非常严重的感受,在医生眼里可能不值一提。其实作为一名研发,我们可能也有这种感受。对于类似的需求,如果是在非常轻松的时候,我们可能很轻松就答应PM了。但是如果本来就有几个并行的需求,非常紧张,PM那边又插一脚,虽然这个问题很简单,但是我们可能会找各种理由拒绝。

AI代理相亲,先筛选再见面

在公园里有很多大爷大妈帮子女相亲。经过他们筛选之后,子女再见面。但是据统计这样效率不高,硅谷有公司正在做相关的代理相亲AI,通过未婚男女的代理AI先见一次面,筛选之后再见面,大大提高了效率,避免不必要愤怒。

反馈,知道哪里做错了

反馈是一种机制,告诉我们哪里做错了。健身的时候,如果疼了,说明这个动作做错了,这种反馈告诉我们要立刻停止。
但很多行为,其反馈非常慢。比如我每天吃甜食,会有什么反馈么?短期内,甚至几个月内不一定有什么负面的反馈。这给我一种错觉:我可以随意吃甜食。熬夜,不正规的坐姿也是如此。
不正规的坐姿,长久的坐着不站起来。不但没有反馈,还会有一种错觉:一直坐着多舒适,站着多累呢。但长期的坐,会导致脊椎压力极大。并且如果只有一块突出的时候,身体并不会有疼痛感。等到有疼痛感的时候,通常已经四、五十岁了,那个时候再想改习惯,就很难了。

中国文化从古到今都讲究含蓄。但是有些人表达却非常直白,虽然听者不会说什么,但是表情中已经表现出了不满,而表达者却并不知道。伍子胥一直耿直的作风,在阖闾时期没什么问题,但是夫差即位后却并不被重用,甚至最后遭到杀身之祸。
上学的时候,张三同学和老师打乒乓球,打了11:0,张三很高兴,但是老师很尴尬。毕业之后,张三依然是速战速决的作风,结果11:0搞得领导也很尴尬。

伍子胥一直都没明白是怎么回事。张三同学可能经历过一段时间,就能明白了,但这需要很长的时间。AGI时代来临,可以能够给予快速的反馈,避免一些不必要的损失。

小班教育

现在大班教育,只是为了降低老师的教学成本。因为所有的学生一样,减少不确定性,会让教学更轻松。但是同样的教学内容,对于学生并不友好。一个班级三、四十个人,甚至更多。每个人的进度都不一样。有些学生感觉老师讲的慢,有些学生感觉老师讲得快。有些学生感觉内容太简单,有些学生感觉内容太难。同样的进度,只会让学习的效率变得非常低。
如果有了AI教育,能够根据每个人的进度进行定制化,那每个学生都可以达到最优的效率。

预测取代规则

决策 = 预测 + 判断
我们做一个决策,需要预测其概率,以及在这个概率下发生的情况,我们是否可以接受。

比如有一次我们去机场因为堵车误机了,那么下次会给自己制定规则:要多预留一个小时。因为我们不知道这次是否会堵车,但是这种为了避免麻烦的规则,反而换成了另一种麻烦。每次堵车的概率是多少?不好说,我们只能按照最坏的情况来做打算。无论是否堵车,都要额外再提前一个小时。

这是由于难以准确预测决定的。如果AGI时代,能够准确预测路上堵车的情况,合理规划时间,可以最大化安排出行,让我们减少不必要的等待时间。

预测可以交给AI,但是判断要保留权限。因为AI无法感受不同后果带来的损失,比如误机对自己的影响,感受有什么变化,有多么伤心、难过、后悔。这些只有人才能有更明确的感受。

所以,AI时代的决策 = AI的预测 + 人的判断

人类干体力活,机器人在享受艺术生活

现在AI学会了琴棋书画,而人在做家务。
似乎和我们的设想反了吧?因为家务活并不简单。琴棋书画很容易“数字化”。做家务涉及真实物理世界的互动,要求你从变换的物理环境中取得复杂的信息,那比仅仅在数字世界中处理数据要难得多。人天生就有视觉和触觉感知环境信息,人脑则会自动处理那些数据,机器人很难处理这些复杂的任务。
未来这种状况应该反过来了。AI机器在做家务、体力活,而人可以做一些优雅的艺术类活动。

数字生命

亲情、友情让人类团结起来。但是如果过于放不开,可能会有额外的问题。玩偶师 The Dollmaker (2017)是一部10分钟的恐怖片,讲述了过份追求情感的问题。
现在就有公司开始做数字生命了。通过训练大量的声音、视频,来克隆数字生命。不过这是一个值得探讨的问题。是保留长久的数字生命?还是应该在真实世界中给家人更多陪伴的时间?

点,线,面。在产业中的普及

一家餐厅,每周进货的数量通常是固定的,比如每周进货100斤牛肉,50斤万年青(烤鱼中的配菜,味道甜)。但是每周客户的消耗量是变化的,并且不同季节流行的食物是不一样的。
如果AGI时代来临,那么餐厅使用AI,就可以准确预测相应的食材消耗量,避免浪费。
不过餐厅的上游就不高兴了,因为上游喜欢稳定,不喜欢你下游变来变去。你稳定,我才能稳定。
这就会倒逼上游供应商也得使用AI,再往上游,直到农民,整个行业全都得使用AI。

更公平,但没有原因

司法由于AI的介入,会更公平。但是正如同神经网络一样,有时候你并不知道原因是什么。一个人败诉了,可能并没有一个很好的理由,而是因为:“此人下次再犯罪的概率较高,为了长期的稳定,这次让其败诉”。有整体的公平,就有局部的不公平。正如同牛的进化,从基因的角度来说是非常成功的。但是对于每个牛个体,却不一定成功,因为它一生都在一个笼子里,直到被宰杀。

ai换壁画

豪宅里通常都会有名画相配。等到AGI时代到来,墙上放的就是投影屏幕了,用AI想画多少张都可以,一小时更换一张。

快递到家

在逛商场的时候,我们可能对某件商品爱不释手,很容易就冲动消费了。但有些商品取障于不方便拿回去,可以稍微阻止一下冲动消费。AGI时代,将会迎来预先发货模式。即商品直接邮寄到你家门口,你可以先试用,满意的话再付款,不满意就退货。这个时候才更能考验自己能不能克制冲动的消费。
其实现在亚马逊已经申请了预先发货专利。但是如何重新包装退货的商品,能够不影响二次销售还是一个难题。

AI时代的君子与小人

古代君子和小人的区别并非以道德为标准,而是地位差异。有权力、有财产的是君子,没钱、给人打工的是小人。“君子”不干活又要体现出价值,就必须在领导力方向努力,讲究修身养性。古代评价君子并非以智力水平为标准,人们更关注道德水平、声望和信誉、领导力。
未来如果AI接管了所有“小人”的活,我们就只能做“君子”了。

以上是展望AGI时代来临之后的改变,或许还是想象的应用场景。以下是现在就可以应用的场景。

五 AI目前的应用

搜索更快,量变引起质量

平时我们遇到一个问题,可能会用搜索引擎寻找答案。但会有两个问题。一是问题解答的不够详细,或者某个细节回答得不对。如果想要继续搜索,还要另外找一些信息,很难与之完全匹配。另一个问题是文章的目的性不一定纯粹。巴菲特说过:“永远不要问理发师你是否需要理发”。当出现利益冲突时,文章可能会带有倾向性。比如可能是有明显的带货诱导倾向。

有了GPT,搜索的速度更快。从之前望远镜的形式进化为侦察兵的形式,在追问模式中深入研究。可以让我们找到我们想要的问题,不带有广告性质,并且能够轻松的刨根问底,通过不停追问,深度研究一个问题。

这种性质的变化和读书有些类似。每人每分钟阅读速度为200-1500字,即最快一小时能读完一本9万字的书(比较薄的书),最慢需要8个小时。即使这本书难度太多,或者意义不大,消耗某天中的一个小时影响也不大,但如果是9个小时被浪费了,那结果就差别大了。因为别说一天,就是几天想挤出9个小时可能并不轻松。速度,可以引起质的变化。

工具整合,避免一根绳子牵出一头大象

有时候我们正在专心写代码,突然遇到了一个问题,本来想打开浏览器搜索一下,结果打开了聊天工具,然后又看了短视频。
这在时间管理领域称之为“一根绳子牵出一头大象”。本来想做一件事,结果因为外界的干扰与诱惑,导致我们做了很多不相关的任务。
GPT可以将各种工具汇聚在一起,减少软件间的跳出,从而避免注意力被打断。
GPT常用的小工具有

  • 绘制柱状图
  • urlEncode
  • 时间戳
  • json格式化
  • 生成二维码
  • 正则校验

优化专业词汇

在写作的时候,我们可能想到了一种现象,但是不知道其专业的表达是什么。通过GPT,可以帮我们总结出更专业的术语。

轻松学英语和编程

阿尔特曼在博客说了一段话,有一个词dunk,我在查的时候其实找不到是什么意思,但是在这里能够看到AI对其进行了解释。其实自己搜索也能找到,不过肯定需要更多的时间。

即使是中文的文章,可能作者认为某些背景已经非常熟悉了,就不再介绍了,不过对于读者来说,可能因为作者介绍的简单而感到莫名其妙,这个时候问问GPT,能更加理解作者的意思。

虽然说AI时代,机器翻译与编程都很方便,但并不代表我们不需要学习英语和编程。因为我们学的不仅仅是实用的技能,更是一种训练大脑的方式。况且,AI时代能够让我们学英语和编程更轻松。
而书法、音乐等流行项目,如果不是感兴趣,确实没有学的必要了。

有赚钱的应用吗?

开源画图模型Stable Diffusion,现在已经有人在创作色情内容了。不过这属于灰色地带,有没有更合法的赚钱方式呢?

上学的时候有辅导班网课,比较大型的机构卖的网课也不便宜。比如买了几节课共6000元,那怎么减少成本呢?三个同学合买,平均每人是2000元,那如何再进一步优化成本呢?我再卖给10个人,只要每个人收200元,即可回本。
同样的道理,现在就有一些软件是这样做的。

MidJourney每个月30刀,但是可以几个任务并行。那么可以通过搭建一个平台,套壳的MidJourney,卖给几个用户,只要这几个用户不在同一时间段使用,就能保证利润。

六 AI时代的素质:创新

创新人才需要什么样的教育

现在的一些教育,有以下特点
1 学生回报的来源是管理者的认可。
2 高度重视错误。
3 对教学范围以外的东西、对新事物是不关心的。

过度追求分数,这样会扼杀创新思维。大部分情况下为了追求分数,没有长远的目标,只为了一个学期考试的分数。考试什么,就学什么。就拿语文来说,会有很多考试的文章需要背诵。但是学生背起来非常痛苦,因为完全不知道背景,提不起兴趣。但是学生对电视剧却非常感兴趣?因为电视剧有意思。其实相比文学名著,电视剧与之相差了几个层次,但是看文学名著需要一些门槛。拿《史记》,《资质通鉴》随便几个故事,其精彩程度并不亚于高分的电视剧。
如果学生缺乏自主性。什么都是别人要他做,而不是他自己要做,那很难有创新的精神。

创造性人才,科学家、艺术家、特别是企业家,他们正好有3个相反的特点:
1 回报不是来自上级领导的认可,不是因为满足了什么标准,而是来自社会、来自消费者,有时候甚至是来自自己的认可。
2 他们并不特别在乎自己做错过什么,不太重视短板,他们要的是长板。做不好的项目可以不做,他们关心的是,在自己能做好的项目上,自己是否好到了足以赢得世人认可的程度。
3 乐于追逐新事物,越新的东西越有可能让他们获得竞争优势 。

这些品质,在OpenAI CEO身上更明显。

阿尔特曼的野心

保罗·格雷厄姆在给创业公司提建议的时候,他常提到的两个人是乔布斯和阿尔特曼。对于设计问题,他经常问:“乔布斯是怎么做的?”。对于战略和野心问题,他会问:“山姆·阿尔特曼会怎么做?”。那一年阿尔特曼才24岁。
在领导OpenAI成为AI界的明星之后,他还准备做以下几件事:

  • 实现和管理AGI;
  • 用核能、生物科技和AI全面升级现代生活方式;
  • 成立一个由企业家组成的超级组织,改善资本主义经济;
  • 建立一个“宪章城市”,测试未来的基础设施和管理方式;
  • 给普通人提供全民基本收入。

前4条可能听起来创新性太强了,不过第5点可能就是很多人的梦想:只拿工资,不工作。他这个计划是选一个城市,每个居民每年发2万美元。

像阿尔特曼这样的创新人才不在少数,那他们的追求到底是什么?或者说是什么造就了这样的创新人才?

创新需要什么条件?情绪与动机

其实很多创新人才并不完全是为了钱,这源于很早的嬉皮士文化,他们有着创新、分享的精神。github,GNU,linux美国版权不是为了保证自己赚钱,而是为了保证软件一直是自由的——你用我的代码可以,但是你必须继承我的版权,而我的版权是为了确保这些代码继续是自由的。
当然,这需要有物质生活保障为前提。苏格拉底没事儿的时候经常会去广场上和人辩论探讨哲学,因为他不用担心基本的物质生活。不过其实大部分地区并不用担心,之所以感觉钱永远赚不够并不是因为基本的物质生活无法满足,而是欲望永无止境。

创新需要什么条件呢?有两点,第一点是积极情绪。
我们平时在洗澡,或吃饭等放松场景下,可能大脑中突然有了灵感,解决了长久未决的问题。这是因为放松的情况下,各种想法才容易进行碰撞,从而产生创新。
在这个AI时代,公共信息已不值钱,所有的数据都可以通过网络获取,但是在放松环境下获得的想法,才是自己主观的理解,才有价值。
当你处于消极情绪中的时候,比如受到威胁、充满压力,我们会把自己封闭起来,只关注眼前的威胁。但当我们处于积极情绪中,视野就打开了,会更容易发现身边各种有意思的事情,注意到平时注意不到的细节。我们的想象力会更活跃,容易发现新的想法连接、激发创造力,这就是“拓展”。

不过只有积极情绪也不行。有些人确实是财富自由了,家里有十几套房能收盘,但好像没表现出什么创造力。他们的注意力确实被拓宽了,整天讲究一些平常人不讲究的东西。比如戴个手串,弄个古玩,吃个饭还要有一大堆规矩,吃个火锅调料还要搞半个小时。他们的敏感度都用在没用的地方。这些人差的是什么呢?
这就是创新需要的第二个条件:动机强度。即平白无故地、没有任何人要求,自己强烈要去做一件事,也可以认为是自己对自己的驱动。

创造力和动机强度都高,才是真正的创新型人才。
创新型人才的情绪最好经常在两种模式中切换。平时是积极模式,有个好心情,视野开阔,对新事物特别感兴趣,总能发现新机会,一边还构建着心理资源和社会资源。但是一旦认准一个方向,那就要切换到高强度模式,把注意力和精神都聚焦在项目上,非得完成不可。
面对一个新事物,忧患者看到的是危险,快乐的人看到的是机会。

AI的商机还很多

聊天形式的生成式AI,和传统的搜索形式不一样。谷歌刚开始并不愿意投入太多资源,因为这会影响搜索广告的利润,结果目前被OpenAI领先。不过其实现在AI还有很多机会,AI领域涉及算力、算法、数据三方面因素。

算力,需要大量的GPU。能用钱解决的问题,对于大公司来说都不是问题。这也是一些创新公司需要防范大公司的地方,很多创新公司在技术上并不落后,但是在资源方面和大公司还是有差距。

算法,需要大量顶尖人才,而人才需要一个非常好的创新环境。虽然各大公司也能模仿ChatGPT,但是还是会缺失很多细节。这些细节对于一个群体来说或许是共识,但是对于外人研究来说就比较困难。古代文言文是没有句逗的,因为大家都知道,所以并不写。但是对于现代人来说,看一篇没有句逗的文言文,如果不了解句逗的知识,可能会因错误的断句导致错误的理解。

数据。OpenAI在5月免费开放了ChatGPT-4o,一方面是因为硅谷小公司可能被大公司有钱有资源打败,另一方面是因为OpenAI没有太多用户数据,它不像一些大型互联网公司能够创造数据,免费开放能吸引大量用户。其实有不少用户不使用ChatGPT的原因就是因为最先进的版本需要收费。当然,不只是独角兽或大公司有机会,其实对于普通的小公司也有机会。有些数据全球都是统一,比如化学知识。但是有些数据是因国家而异,比如不同肤色人种关于癌症的数据是不同的。另外对于同样敏感的数据,不同国家有不同的政策,有些能够轻易获取公共数据,但有些却很难。所以这个不同国家、不同地区,不同公司会有较大的差距。不过这也为各国、各公司提供了机会。不同的公司可以根据地区差异、行业差异,训练属于自己的专用AI。医疗行业,以及不同国家的交通情况,不同的数据特色,都可以做针对本土的专用AI。

七 终极AI与人类的关系

担心AI有意识,拟人化的启示

因为AI的某些反应,人们担心AI有意识。这称之为伊丽莎效应,其实有时候是过度解读,人们无意识地把计算机给拟人化。虽然说未来AGI时代AI确实有可能有意识,不过目前最关键的不是AI会不会有意识,而是人们过于愿意相信有意识。这种心态并非是AI时代才出现的问题,而是自古以来就有的。
早在春秋战国时期,人们就常将一已的愿望投射出去,把自然界予以人格化,因而以为自然界对人类有一种特别的关心、特别的爱意。老子反对,认为天地间的一切事物都依照自然的规律(道)运行发展,其间并没有人类所具有的好恶感情或目的性的意图存在。
其实现在我们也可能会把小猫、小狗,甚至玩具汽车都当它是人,有意无意地觉得它有情感、有性格、有动机、有意图。不过这些都是社交互动。
但有时候会因为对某个东西产生恨意而拟人化。比如你正在做PPT,马上就到截止时间了,突然windows电脑崩溃了,所有数据没有保存。那你会不会有一种强烈的感觉——电脑是不是在跟我做对?
这种想法其实是我们会给明明没有动机和意图的事物安上动机。有时候老人在家里带孩子,孩子在家里跑,撞到了椅子,老人就会对孩子说:“都怪椅子,我帮你打椅子”。可是孩子虽然小但也是应该明白,这椅子明明没有动啊,怎么会是椅子的错呢?我们总想为自己的麻烦找一个怪罪的对象,而把一些东西拟人化就是特别方便的找替罪羊的方法。
在互联网也有类似的例子,你(假如是一名产品经理)写了一天的PRD,晚饭都没吃,拉会找研发进行需求评审。本来累了一天了,一看研发的态度不好,而且在你讲需求的时候总是找各种理由拒绝你的需求。最后排期的时候还说排不上,气得你真想找他老板投诉他。可问题是,研发态度不好,是因为他写了一天代码了,他很累,他并不是针对你。
做过自媒体的应该都知道,无论发表任何观点,总有人在评论区反对,虽然对方可能连视频内容都没看,但是上来就直接反驳。如果你回应了,那么你就输了,因为不可能争论胜利。对于网络暴力,其实对方真的不一定是针对你,他对其他人也是这样的。

有个理论叫“汉隆剃刀”,意思是能用愚蠢解释的,就不要用恶意。可以把这个理论推广一下:能用局面和系统解释的,就不要拟人化。
人们总是不自觉地把系统的作用归因于个人。都说乔布斯有创造力,说是乔布斯发明了iPhone。但是iPhone是乔布斯一个人发明的么?难道不是成千上万个工程师一起努力的结果么?
马斯克被认为是最聪明的人,既发明了低成本的火箭,又发明了电动汽车。而事实是,马斯克只是一个创始人而已——他要做的不是自己发明什么,而是找最聪明的一群人替他发明东西。
把公司行为解释为创始人的意图,也是一种拟人化。

这对我们生活有什么启示呢?就是要反拟人化,任何不开心的事情,不要认为“这是在针对我”,而要把对方当成AI,一个机器的固定行为,有一个机器能有什么坏心思呢?有了这样的思维方式,或许就会少一些烦恼。

AI时代的康德,史蒂芬·沃尔夫勒姆

上个世纪AI的哲学思想,让人类信服,只要有了信仰,做任何事情都会有信心。AI时代的康德,或许就是史蒂芬·沃尔夫勒姆。2023年3月15日史蒂芬·沃尔夫勒姆发明了展望了AI对人类社会的影响的文章。理解了史蒂芬·沃尔夫勒姆的思想,就会有一种对未来世界的掌控感。他的思想有三个观点。
一 计算不可约性
大自然有些现象是可约化的,即能够总结出规律,具有普适性。比如今天太阳是东方升起的,明天,以后一直也是这样的。用一句话概括就是:太阳每天从东方升起。这就是可约化,有了可约化,就有了思维快捷方式,可以对事物的发展做出预测。
有人希望科技进步能够约化一切现象,但事实恰恰相反。数学家已经证明,真正可约化的,要么是简单的系统,要么是真实世界的一个简单的近似模型,一个足够复杂的系统是不可约化的。
哪怕只有三个天体在一起运动,它们的轨道也会通往混沌的乱纪元——不能用公式描述,不可预测。即计算不可约化。对于计算不可约化的事物,本质上没有任何理论可以预测,只能等到它演化到那一步,才能知道结果。
这就是为什么没有人能够在很长的时间维度上预测天气变化、股市、国家兴亡或人类社会的演变。不是能力不足,而是数学不允许。
计算不可约性告诉我们,任何复杂的系统本质上都是没有公式,没有理论,没有捷径,不可概括,不可预测。这看似是坏消息,其实是好消息。
因为计算不可约性,世界科技的发展总是无穷无尽的。不论科技多么发达,AI多么智能,总有一些新事物会出现,我们总是会有意外和惊喜。人活着总会有奔头。
在研发如何避免AI骗人的时候,科学家发现只要大模型学会了欺骗,无法消除它的能力。无论如何微调,强化学习,或者对抗性训练。那都只会帮助它把欺骗做得更巧妙。

计算不可约性还意味着,泰格马克等人倡导的、想要大家联合起来设计一套AI防范机制的做法,注定不可能100%成功。当然,AI也不可能控制人类。

史蒂芬·沃尔夫勒姆的第二个观点是计算等价原理。有很多复杂的系统,不管看起来有多复杂,它们都是同等复杂的——装满空气的塑料袋,里面有很多运动复杂的空气分子。它们的复杂程度和人类社会相比,谁更复杂呢?是一样复杂的。
这意味着,从数学的角度来讲,人类文明并不比一袋空气更高级,也不比蚂蚁社会更值得保留。人类其实只是生物演化的产物,跟万物相比没有什么本质的区别。
既然人类,蚂蚁,AI都是大自然演化的产物,同样平等,那我们凭什么认为自己更有价值呢?

史蒂芬·沃尔夫勒姆的第三个观点是:人的价值在于历史。人类有上万年生物进化的历史记忆。我们的价值观,本质上都是历史的产物。这就是为什么人们虽然总是说公平,要追求公平,但是当涉及到亲朋好友和更有道德的陌生人有利益冲突的时候,你依然会关心陌生人。
刚搭建好的神经网络和训练后的神经网络,在复杂程度上其实是一样的,只不过训练好的AI更像人,因为它是经过大量人类语料训练的。人类有了价值观,就能决定人类社会探索的方向。未来有无数未知等待我们探索,但是AI再强也不可能探索所有方向,总要有取舍。取舍只能根据价值观,而有价值观的只有人类。

与AI共存

对于未来AI与人类的关系,有三种说法
一 降临派。AI降临,统治人类。
二 拯救派。我类通过一些技术措施(比如超级对齐计划),能够安全地限制AI。AI只能当人的助手和工具,绝对处于人类的掌控之中。
三 幸存派。AI太强了,并且不在乎人类的死活。正如《人猿星球》描述的那样,人类被猿打得到处跑,只能在宇宙中寻找幸存的空间。

看了哲学就会明白,人类最终还是会与AI共存的,如同大自然一样。大自然虽然有火山地震等灾难,造成麻烦,但大自然还有很多美好的一面。人类还是可以长期与之共存的。

八 AI给人类的启示,如何优化大脑、改变习惯

AI和人有很多相似之处,神经网络模拟人有大脑,我们也可以学习一下AI。

量变引起质变

AI出现了涌现,开悟现象,其实是量变引起质变。即达到一定量级的数据的时候,会出现恍然大悟的情况。我们读书也应该这样,虽然刚看了10本,20本书没有明显的变化,但是只要再继续读几年,总有一天会量变引起质变。那一天就会明白梁晓声老师2023年4月在线下分享时说的:“其实你们每个人都有1个亿资产,只是你不知道。当你读完大量的书的时候,你就明白了”

改自己习惯的神经网络,习惯应该向哪方面改?

每个人都要做适合自己的,向中间调整。首先就是要知道,然后才能知道如何改进。向正确的方向改。
有人比较暴躁,说的太多了,应该逐渐减少。有人过于内敛,什么都不说,应该适当增加。

控制和改写自己的神经网络

我们有时会有很多感性的本能行为,由神经网络构建。有些行为虽然不好,但似乎已经养成习惯了,我们也没有过于在意。比如很容易争吵,很容易愤怒,很容易吃很多甜食。
其实这不是与生俱来的,而是我们长期训练的。
因为当我们愤怒、吃甜食、争吵的时候,并没有什么负面的反馈,这给我们一个错觉:这样做没错。但是长期积累,会造成严重的后果。那我们应该怎么办呢?
严格要求自己,逐步改变。

新英格兰爱国者队的主教练比尔·贝利奇克,训练球员,规定9:00准时开始。但是有一次全明星侧卫达瑞尔·雷维斯迟到了1分钟,并解释到:因为偶然意外的交通事故导致堵车,否则我本来会提前来的。况且即使出现了意外,也仅仅迟到了1分钟。
对于这种偶然的意外,而且迟到1分钟也不算什么大问题。如果你是教练?你会怎么做?

这位教练说:“你回家吧,迟到了,就别找那么多借口”。这从训练AI的角度来说,就是要保证所有训练素材都是最优的。如果有一个临界值9:00,那么只要超出临界值,就是不合格。所以我们也要保证自己神经网络的素材是非常优质的,绝不能掺杂一个劣质素质。即任何行为都要用最严格的标准来要求自己。

但是对于已经养成的习惯,我们怎么改呢?即如何优化自己的神经网络呢?
一方面要严格要求自己,高标准,提供高质量的训练素材。
另一方面是停顿。当我们按照默认模式行动时,通过停顿,我们可以用好的默认模式取代坏的默认模式,而不是使用意志力。
很多时候我们的反应都是无意识的,这就会导致快思考,做出不正确的反应。在生活中,有以下五点是我们经常用到的,但是以前可能养成了不好的习惯,值得我们重新使用高质量的素材再训练一遍。

需要训练自己的哪些神经网络

有五个常用的需要训练的神经网络
一 自我认识,熟悉自己。知道自己会做什么,不会做什么,自己的优点和缺点是什么,能掌控什么、不能掌控什么。知道自己的能力边界。做自己擅长做的,拒绝不熟悉的领域,即使可能有额外的收获。
孤注一掷就讲了一些骗局:不怕玩家赢钱,就怕玩家不参与。不该做的就不要参与。

二 自控。驾驭自己的情绪和弱点。当我们有情绪的时候,可以拉远镜头,从一个遥远的距离观察自己,好像发生情绪的“我”并非真实的我一样,通过远距离观察来切换这个有情绪的“我”,逐渐把它开除。

三 自信。相信自己有能力,相信自己有价值。通过完成一件事,可以从中得到自信。信息的人善于改变自己的观点,而不是每天都在细枝末节上证明自己是对的。

四 自我问责。即使事情不是你的错,也不意味着不是你的责任。抱怨是“对世界应该如何运转讨价还价”——我们应该做的是接受世界的运转。伟人从不抱怨。伟人总是专注于下一步行动,看看做什么对未来更有利。

五 如果错误已经铸成,那该怎么办呢?平庸之人的本能反应是掩盖错误。才能平庸,脾气又特别倔强的人会把明知是错误的一件事一直干下去,期待出现奇迹证明自己终究是对的。传统的纠错方法也有问题,一边喊着“惩前毖后,治病救人”,一边要求犯错者做“触及灵魂的检讨”。让人家各种自我羞辱、自恨,其实除了提供情绪价值啥用没有。正确的做法是基于当前的条件,尽快找到解决方案。

如何改变自己?我之前休息时间全都是打游戏、看电视剧。现在我已经4年没打游戏了,不看电视剧,不看短视频,不刷朋友圈,全部时间都用来阅读。欢迎关注,一起改变。

九 你想领导AI,还是被AI取代?站在AI颠覆世界的前夜,我们应该怎么做?

不要在意AI的缺点

AI比较擅长细节方面,但是不擅长宏观方面。不过这不能成为我们拒绝AI的理由。我们领导AI,正如同领导团队一样,是需要发挥每一位成员的优点。比如一个团队招聘一名研发工程师,是要求其完美么?不,是要求其能擅长完成我们要求做的任务。只要能完成软件的开发即可,至于他的厨艺如何,开车水平如何,这有影响么?没有啊,我们招开发又不是让他做饭的。

我们领导AI,使用AI,就是在某些方面完成任务,这样可以给我们预留更多的时间来宏观统领全局。这也有点类似权利的下放。一个领导不能所有的事情都自己干。有些事情能让下属干,这样自己就会有更多的事情做更宏观的事情的规划与执行。

AI会淘汰一些岗位,但也会提供更多的机会

20世纪初每次打电话是需要接线员接线的,当时接线员是一份体面的工作。后来有了自动的电话交换机,不需要接线员了,电话行业的就业人数是不是减少了呢?没有,恰恰相反。电话交换机让打电话变得更便宜,于是需求增大,这个行为反而多出来了一些岗位。计算机出现之后,会计师也在一定程度上自动化了。会计师的人数因为行业的普及,使用人数增加,反而有了更多的岗位。
经济学家的规律:自动化程度越高,生产力就越高,产品就越便宜,市场份额就越大,消费者就越多,生产规模就必须不成比例地扩大,结果是企业需要雇佣更多新岗位。
不过,虽然整体岗位增长了,但是涉及到局部的更替。即一部分人失去工作,而另一部分准备好的人却能获得更好的工作。

2001年中国刚加入WTO的时候,有一些优势的商品销往海外,但是与外国人交流的时候需要使用英语。而当时懂英语的人比较少,那个时候,谁会英语,就具有绝对优势,赚得盆满钵满。

AI时代,新的科技革命会夺走一部分人的饭碗,但同时也会增加另外一些岗位。谁能提前了解AI,具有与AI沟通的能力,谁就能充分利用信息差,创造不公平。不公平,是成功的地图。

很多电视剧都需要付费会员,甚至超级VIP超前点映,比如最近较火的《庆余年2》。但是如果你知道切换美区的话,就可以免费看。这,就是信息差。
现在很多公司需要10名插画师。但是以后可能淘汰9名插画师,并给一位插画师升职为插画总监:带领AI来完成工作。如果你已经提前掌控AI绘画,就可以胜任插画师总监,而不是被淘汰。这,就是信息差。

风口,猪都能飞。但是,风口是给有准备的猪起飞时使用的。
微信刚发布的时候发展很快,确实,产品做的很好,不过其实也是抓住了机会。当时打电话按分钟收费,发短信也收费,总之,一切通讯都有成本。微信抓住了风口,顺应时代的潮流才更容易成功。

学点魔法咒语,提前学会与AI交流

人类历史上那些伟大的时刻,在出现之前,都有长时间的酝酿和势能的积累。但是绝大部分人只能看到那一瞬间群星的闪耀。
与AI交流,也被称为prompt工程师,是需要大量的AI使用经验的。在绘制领域,使用Midjourney,起码得画成千上万张图,才能深刻理解AI绘画的细节,完全掌控。但这不可能几个星期什么都不干,一直画,是需要时间沉淀的。正如同学英语一样,每天学3小时,持续半年。这样的效果要好于“每天学10小时,持续2个月”。

如果你完全没有接触过AI,想要使用Midjourney或Stable Difussion,其实仅仅使用自然的词语,并不能达到很好的效果。因为想要绘制出专业的图画,需要学习大量艺术相关的词语。同样是“可爱”的意思,cute,chibi,kawaii这三词的图像展现效果差别就非常大,甚至不是一个风格。控制人物在画面中的角度,需要了解的专业术语就更多了。

  • 正视图
  • 侧视图
  • 三分之二视图
  • 顶视图
  • 高角度视图
  • 极高角度拍摄
  • 底视图
  • 低角度视图
  • 极低角度视图
  • 平视
  • 自拍视图

是不是看起来比较简单?虽然之前没学过,但是从字面很容易理解。不过下面这些就不是那么简单了。

  • holographic
  • sss material
  • Translucent plastic
  • pvc
  • fine luster
  • Fluorescent dazzling color

这些都是关于材质的介绍,全自、SSS材质、半透明塑料、聚氯乙烯、光泽细腻、荧光耀眼的颜色。这些不深入了解,其实很难掌握。不过这些只是艺术领域中的冰山一角,还有大量知识需要学习。

在用ChatGPT文字交流的过程,其实也会出现沟通困难的情况。我们提了一个要求,但是GPT的回复是有瑕疵的,我们再提要求,GPT再修改…不断循环,最终满意。这个过程是不是很像甲方/领导的要求?事前提需求,中间尽量少干涉,最后达成共识,双方共同创造结果。
一个好的领导,在提要求的过程中,逐渐与下属磨合,达成默契,最终效率越来越高。
一个好的prompt工程师,在使用GPT的过程中,逐渐了解与AI沟通的方式,从而在各个方面提升效率。

专用AI,大杀四方

现在的ChatGPT是通用性的生成AI,其内容数据量虽然大,但并非针对个人的需求。其实在很多领域,很多学科,都需要通过训练自己的数据。但这其实有两个门槛:1英语,了解最新的信息;2编程能力,规范训练数据的格式,训练自己的模型。机器学习入门实验,有个泰坦尼克号乘客的项目。先亲手训练一个AI,看着它输出正确结果,然后再逐渐加大难度,根据自己的需求训练专用AI。

现在DeepMind拿着这样的大规模杀伤性武器,对各个科研领域进行碾压式的打击。不仅涉及围棋、电子游戏、蛋白质折叠、天气预报、控制核聚变等离子体,他们还用AI帮助破解了2500年前用楔形文字写成的文本,还开始帮数学家证明定理。没有涉及的领域不是他们不能做,而是还没来得及。这就是孟子梦想的王道之师。东面征而西夷怨,南面征而北狄怨。他们进军考古学的时候,生物学家说:“你们怎么还不来解决我们的问题”,他们解决生物学难题的时候,数学家说:“我们也能用上AI啊,快来”。

历史上还有哪个东西是这样的?孤陋寡闻的人不知道AI,认知固化的人忽视AI,肤浅的人害怕AI,热情的人欢呼AI。我们率先使用AI,探索AI,试图理解AI。这个时代属于AI的,也属于我们的。

人们评价你的一生不是看你有多少知识,而是看你有多少行动。你,开始将AI融入自己生活了么?

Author:KangQingYu
Link:http://example.com/2024/06/16/20240616_%E7%AB%99%E5%9C%A8AI%E9%A2%A0%E8%A6%86%E4%B8%96%E7%95%8C%E5%89%8D%E5%A4%9C%E7%9A%84%E6%8A%89%E6%8B%A9%EF%BC%8C%E4%BD%A0%E6%83%B3%E9%A9%BE%E9%A9%ADAI%E8%BF%98%E6%98%AF%E8%A2%ABAI%E5%8F%96%E4%BB%A3%EF%BC%9F%EF%BC%8820240616%EF%BC%89/
版权声明:本文采用 CC BY-NC-SA 3.0 CN 协议进行许可
×