首页  

《超有趣的 GPT AI 公子逆袭记》笔记     所属分类 AI 浏览量 17
《超有趣的 GPT AI 公子逆袭记》是一本以独特视角讲解人工智能知识的书籍 .
它通过幽默的故事和生动的漫画,让读者轻松理解复杂的技术概念,
尤其适合对 ChatGPT 感兴趣但又对专业知识望而却步的人群 .​

AI(Artificial Intelligence,人工智能)是如何拥有创造力的?
图像和文本生成如何做到以假乱真?
什么是 ChatGPT? 
人工智能的未来会怎样?
这些问题都会在这个有趣的故事中被一一解答。
本书讲述了AI公子为了在心爱的千金小姐的招亲大会中获胜而努力学习的幽默故事。
本书讨论了AI 与人类学习的相似性,结合AI公子的学习过程讲述ChatGPT核心技术的发展脉络。 
本书适合对ChatGPT感兴趣的人员阅读




一、故事梗概​
本书讲述了 AI 公子为了在心爱的千金小姐的招亲大会中获胜而努力学习的历程 .
AI 公子如同一个初入知识殿堂的学子,在追求智慧的道路上不断探索 .
招亲大会像是一场高难度的挑战,要求 AI 公子掌握各种技能,
这也成为推动故事发展的主线,使得书中知识的讲解不枯燥,反而充满趣味性 .​


二、AI 与人类学习的相似性探讨​
书中将 AI 的学习过程与人类学习相类比,让读者更容易理解 .
例如,AI 在处理大量数据进行学习时,就如同人类通过阅读大量书籍、经历各种事情来积累知识 .
AI 需要对数据进行筛选、分析,人类也需要对获取的信息进行思考、整理 .
这种相似性的描述,打破了读者对 AI 学习的陌生感,让大家意识到 AI 的学习逻辑与人类有相通之处  .​



三、ChatGPT 核心技术发展脉络梳理​

文字转换为向量(幻影秘术):
这是 AI 处理文字信息的基础 .
就像把文字变成一种机器能理解的 “密码”,每个文字或词语都被转化为特定的向量形式,方便后续的计算和分析 .
比如,书中可能会举例说明,当输入 “苹果” 这个词,它会被转化为一个特定的向量组合,
这个向量包含了 “苹果” 这个概念在语义空间中的位置和特征等信息  .​



自注意力机制(火眼金睛):
该机制让 AI 在处理文本时,能够关注到文本中不同部分之间的关联 .
以阅读一篇文章为例,人类会自然地关注到文章中重要的句子、段落之间的联系,自注意力机制使得 AI 也具备类似能力 .
它可以在处理长文本时,理解每个词汇在整个文本语境中的重要性,不会顾此失彼  .​

Transformer:
Transformer 模型是现代 AI 的重要基石 .
它让 AI 公子拥有了更强的学习能力 .
其独特的架构设计,能够并行处理信息,大大提高了学习效率 .
比如在翻译任务中,Transformer 可以同时考虑源语言句子中的各个词汇,
而不是像传统方法那样依次处理,从而更准确地完成翻译  .​




生成对抗网络(左右互博术):
生成对抗网络由生成器和判别器组成,二者相互对抗又相互促进 .
可以想象成一个画家和一个评论家,画家不断创作作品,评论家不断指出作品的不足,在这个过程中,画家的技艺不断提高 .
在 AI 领域,生成器生成图片、文本等内容,判别器判断这些内容是否真实、合理,通过这种对抗,生成器生成的内容越来越逼真  .​



变分自编码器(移步换形):
它能够对数据进行编码和解码,在保留关键信息的同时,对数据进行压缩和重构 .
例如,在图像生成中,它可以将一张复杂的图像编码成一个低维向量,
然后再从这个向量中解码出与原图相似的图像,这一过程有助于 AI 学习数据的特征和分布  .​



GPU 与并行计算(众志成城):
GPU 的强大计算能力为 AI 训练提供了有力支持 .
多个 GPU 并行工作,就像众多人齐心协力完成一项艰巨任务 .
在训练大型 AI 模型时,需要处理海量的数据,GPU 的并行计算能力可以大大缩短训练时间,提高效率

​
多头自注意力机制(超级绝招:分身术):
这是自注意力机制的进阶版本 .
它就像让 AI 拥有多个 “视角” 来看待文本 .
通过多个头的并行计算,能够从不同角度捕捉文本中的信息,
综合这些信息后,AI 对文本的理解更加全面和深入,在处理复杂任务时表现得更加出色  .​



ChatGPT(终极大绝招):
ChatGPT 整合了上述多种技术,实现了强大的语言交互能力 .
它能够理解用户的问题,并生成连贯、准确且富有逻辑的回答 .
通过不断的训练和优化,ChatGPT 能够处理各种类型的自然语言任务,为人们提供便捷的信息服务和智能交互体验  .​


AI的发展过程:从感知机、BP神经网络到深度学习, AI的学习方法: 实践→对比正确答案→找出差距→回溯→调整→重新实践→反复迭代 深度学习是一种通过多层神经网络自动学习特征表示的机器学习方法; 它还有一个非常重要的特点——不需要再提取特征了 将文字转换成向量 独热编码 美丽的花朵在风中摇曳 假设词汇表,总共有 5 个词 ‘美丽’ ‘花朵’ ‘在’ ‘风中’ ‘摇曳’ ‘美丽’这个词的独热编码就可以表示为 [1, 0, 0, 0, 0], 其中只有对应‘美丽’这个词位置的数字是 1,其他位置都是 0; ‘花朵’的独热编码就是 [0, 1, 0, 0, 0] 如果词汇表非常大,每个向量都会有很多 0,会浪费很多空间; 词嵌入是一种将词语映射到低维实数向量空间的技术, 通过训练模型,让每个词都能在这个空间中找到一个合适的位置, 使得语义相近的词在向量空间中的距离也相近。 在某向量空间里,‘汽车’和‘卡车’这两个词的向量就会比较接近,因为它们都属于交通工具这一类,语义相近。 而‘汽车’和‘花朵’的向量就会相距很远,因为它们的语义差异很大。 通过计算向量之间的距离来理解词语之间的关系了 BP 神经网络,一种模拟人类大脑神经元工作方式的模型; 大脑中有无数的神经元,它们相互连接,通过传递信号来处理信息; BP 神经网络也是由许多神经元组成,这些神经元按照层次排列,分为输入层、隐藏层和输出层; 神经元之间通过权重来传递信息,每个连接都有一个权重值,这个权重值决定了信息传递的强度。 就好比一条道路,有的道路宽阔平坦,车辆通行顺畅,权重就大; 有的道路狭窄崎岖,车辆通行困难,权重就小; 在 BP 神经网络中,权重的大小会影响信息在神经元之间传递的效果; BP 算法 反向传播算法, Backpropagation Algorithm ; 当输入层接收到信息后,信息会通过权重传递到隐藏层的神经元, 隐藏层的神经元对信息进行处理后,再传递到输出层。 输出层得到结果后,会与期望的正确结果进行比较,计算出误差; 然后,误差会从输出层反向传播回隐藏层和输入层,通过调整权重来减小误差; 这个过程会不断重复,直到误差达到可以接受的范围; 常用的误差计算方法 均方误差; 左右互搏:生成对抗网络。 生成器和判别器之间的竞争和合作促使生成器生成更逼真的数据,判别器提高对伪造数据的识别能力。 多头自注意力机制,它使模型可以同时关注输入序列的不同部分,以更好的理解和处理信息。 多头自注意力要同时从不同的角度摘取文本的关键信息,最后进行整合,大幅度提升了文本等处理效果。

上一篇     下一篇
Python3 VS Python2

FastAPI 和 Flask

spring事务及注解

《大数据数学基础(Python语言描述)》 笔记

LangChain原理简介