AIGC术语
所属分类 AI
浏览量 388
AI(人工智能)
Artificial ntelligence。涵盖各种技术和方法,旨在使计算机系统具备感知、理解、学习、推理、决策和交互等能力。
AGI(通用人工智能)
Artificial general intelligence ,与狭义人工智能(专注于特定任务)不同,它的目标是实现全面性的智能,具备自主决策和创造性思维。
AIGC(人工智能生成内容)
生成式 AI(Generative AI)是一种人工智能技术,通过模型学习和生成新的数据图像、音频或文本等内容。
生成式 AI 在许多领域有广泛的应用,例如图像生成、图像修复自然语言生成、音乐合成等。
它可以用于艺术创作、内容生成、虚拟现实等领域。
LORA(大语言模型低阶自适应)
Low-Rank Adaptation,大型语言模型的低阶自适应。
LORA 大大降低了适用于特定任务的大型语言模型的存储需求,并在部署期间实现了高效的任务切换而不会带来推导延迟的问题。
ANI(狭义人工智能)
Artifical Narrow intelligence,专注于一件事的 AI,比如下围棋的 AlphaGO,又称为弱人工智能。
Agents(代理)
人工智能领域中指的是一个能够感知环境、做出决策并执行动作的实体。
代理可以是物理实体(如机器人)或虚拟实体(如计算机程序)。
Attention(注意力)
模型或系统对输入数据中不同部分的关注程度或重要性。
注意力机制可以帮助模型在处理复杂任务时,集中于关键信息。
Alignment(对齐)
确保人工智能系统的目标与人类价值和意图保持一致的过程。
在开发和部署人工智能系统时,对齐的目标是确保系统的行为和决策符合人类的期望,并符合道德、法律和社会规范。
Backpropagation(反向传播)
一种在神经网络中训练模型的常用方法。
通过计算模型预测与实际标签之间的误差,并将误差反向传播回网络的每一层,以更新权重和偏置的过程。
BIAS(偏见)
机器学习和数据分析中出现的系统性错误或不公平性。
解决偏见的方法包括数据清洗、样本平衡、特征选择、模型调整等。
CLIP(对比语言-图像预训练)
Contrastive Language-image Pretraining
是一种先对语言和图像数据进行预训练,然后将两者结合以提高多模态任务性能的方法。
CV(计算机视觉)
Computer Vision 是人工智能领域的一个分支,研究如何使计算机系统能够理解和解释图像和视频数据。
Connectionism(联结主义)
是一种认知科学和心理学的理论框架,强调神经网络在认知过程中的作用。
它试图通过模拟大脑中神经元之间的连接和交互来解释人类认知的基本原理。
在计算机科学中,联结主义也指代一类基于神经网络的机器学习方法。
Cross-Modal Generalization(跨模态泛化)
在机器学习和人工智能中,将从个模态(如图像、文本或声音)学到的知识和模型应用到另一个不同模态的任务上的能力。
跨模态泛化具有广泛的应用,如图像字幕生成、图像问答、多模态情感分析等。
CNN(卷积神经网络)
Convolutional Neural Network 是一种深度学习的神经网络架构专门设计用于处理和分析具有网格结构数据的任务,如图像和视频。
End-to-End Learning(端到端学习)
是一种机器学习的方法,旨在通过一个统一的模型或系统直接从原始输入数据中学习端到端的映射或任务。
Few-Shot(小样本学习)
是一种机器学习任务,旨在从非常有限的标记数据中学习新的类别或任务。
常见的小样本学习方法包括元学习、迁移学习和生成模型等。
Data Augmentation(数据增强)
是一种在机器学习和深度学习中常用的技术,旨在通过对训练数据进行有限的变换和扩充,从而增加数据的多样性和数量,改善模型的泛化能力。
通过数据增强,可以帮助模型更好地泛化到未见过的数据,减少过拟合的风险。
Deep Learning(深度学习)
是一种机器学习方法,通过构建和训练多层神经网络来模拟和学习复杂的数据表达和特征。
深度学习的优势在于它能够自动学习特征表示,并从大规模数据中发现复杂的模式和关系。
Fitting(拟合)
在机器学习和统计学中,拟合(Fitting)是指根据给定的数据和模型,通过调整模型的参数或函数形式,使模型能够最好地适应数据。
Forward Propagation(向前传播)
是神经网络中的一种计算过程,用于将输入信号通过网络的各个层传递,最终得到输出结果。
GPU(图形处理单元)
Graphics Processing Unit
是一种专门用于图形渲染和计算的处理器。
它是计算机中的一种硬件设备,用于加速图形和图像处理任务。
GAN(通用对抗网络)
Generative Adversarial Networks 是一种深度学习模型,
由生成器(Generator)和判别器(Discriminator)两个部分组成,通过对抗训练的方式进行学习 ,
GAN 的核心思想是通过生成器和判别器之间的竞争和博弈来提高生成模型的性能。
Fine-tuning(微调)
在预训练模型的基础上,使用少量的新标记数据对模型进行进一步训练的过程。
在微调过程中,预训练模型的权重会根据新数据进行调整,以适应新任务或新领域的特定需求。
Gradient Descent(梯度下降)
是一种常用的优化算法,用于调整模型参数以最小化损失函数 ,是机器学习和深度学习中常用的参数优化方法。
Hyperparameter Tuning(超参数调优)
是在机器学习和深度学习中的一项重要任务旨在找到最佳的超参数组合,以优化模型的性能和泛化能力。
LLM(大语言模型)
Large Language Model 是指具有庞大规模的参数和训练数据的语言模型。
可用于自然语言处理任务,如文本生成、机器翻译、对话系统等。
Hidden Layer(隐藏层)
在神经网络中,隐藏层(Hidden Laver)是介于输入层和输出层之间的一层或多层神经元组成的层。
它的名称”隐藏”意味着隐藏层的输出不直接对外部观察者可见,只在网络内部传递信息。
Inference(推理)
在机器学习和人工智能领域中,推理(lnference)是指使用训练好的模型对新的输入数据进行预测、分类或生成结果的过程。
推理是模型应用阶段的重要环节,它基于已经训练好的模型参数和学习到的知识,对未见过的数据进行预测和推断。
LSTM(长短期记忆)
长短期记忆(Long Short-Term Memory)是一种常用的循环神经网络(Recurrent Neural Network,RNN)架构,用于处理序列数据和解决序列建模的问题。
Loss function(损失函数)
是机器学习和深度学习中的一个关键组成部分,用于衡量模型预测值与真实值之间的差异或误差。
Modality(模态)
描述不同类型的信息如何被感知、表达和处理。
Machine Learning(机器学习)
机器学习(Machine Learning)是一种人工智能(Artificial Intelligence)的分支领域,
旨在使计算机系统能够从数据中学习和提高性能,而无需明确地编程规则。
机器学习通过从大量数据中自动学习模式、规律和知识,使计算机能够自主地做出预测、决策和推断。
NLP(自然语言处理)
Natural Language Processing
人工智能领域的一个分支,专注于让计算机理解、处理和生成人类自然语言的能力。
自然语言处理旨在让计算机能够处理文本、语音等形式的自然语言数据,实现对文本内容、语义和情感的理解与处理。
NeRF(神经辐射场)
是一种用于生成逼真的三维场景的方法。
它是一种基于神经网络的体素渲染技术能够从有限的视角图像中重建出完整的三维场景。
Multimodal(多模态)
多模态(Multimodal)指的是涉及多种感知模式或数据类型的任务或系统。
在多模态任务中,系统需要同时处理和整合来自不同感知模态的信息,例如图像、文本、语音等。
Objective Function(目标函数)
目标函数的作用是量化模型的预测结果与实际观测值之间的差异或误差。
通过最小化目标函数,可以得到最优的模型参数或优化结果,以使模型的预测结果与实际值尽可能接近。
Neural Network(神经网络)
是一种基于生物神经系统启发的计算模型,用于解决机器学习和人工智能问题。
它由多个神经元(或称为节点)组成,通过神经元之间的连接进行信息传递和处理。
Overfitting(过拟合)
是指机器学习模型在训练阶段过度学习了训练数据的细节和噪声,导致在新数据上的泛化能力下降。
过拟合就是模型过于复杂或过度拟合了训练数据,而在未见过的数据上表现不佳。
Paradigm(范式)
在特定领域或学科中被广泛接受和采用的理论、方法或模式它代表了该领域的典范、典型或基本框架,用于指导和影响相关研究和实践。
Pretraining(预训练)
是一种在机器学习和深度学习中常用的技术,旨在使用大规模的无监督数据来初始化模型的参数,从而提高模型在特定任务上的性能。
Prompt Engineering(提示工程)
在使用语言模型或生成模型时,设计和优化输入的提示或指导文本,以获得更准确、一致或符合预期的输出结果。
RNN(循环神经网络)
Recurrent Neural Network 是一种神经网络结构,专门用于处理序列数据或具有时间相关性的数据。
与传统的前馈神经网络不同,RNN 具有一种循环的连接方式,使其能够保留并利用先前的信息状态。
Regularization(正则化)
正则化是一种用于减少机器学习模型过拟合的技术。
当模型过度拟合训练数据时它可能过度适应训练样本的细节和噪声,而在新数据上的泛化能力下降。
正则化通过对模型参数或模型复杂度施加约束,来平衡模型对训练数据的拟合程度和泛化能力。
Singularity(奇点)
是指一个假设的未来时间点,当技术增长变得不可控和不可逆时,导致人类文明发生不可预见的变化。
TPU(张量处理单元)
Tensor Processing Unit 是一种专门设计用于加速人工智能计算的处理器。
它由谷歌公司开发,旨在高效地执行深度学习和机器学习任务。
TensorFlow
是一种开源的机器学习框架,由谷歌开发和维护。它提供了丰富的工具和库,用于构建、训练和部署各种机器学习和深度学习模型。
Turing Test(图灵测试)
由英国数学家和计算机科学家艾伦·图灵(Alan Turing)于 1950 年提出的一种测试人工智能的方法。
它旨在评估机器是否能够表现出与人类相似的智能。提问者与机器通过对话交流,提问者的目标是通过提问来判断回答者是机器还是人类。
欠拟合(Underfitting)
是指机器学习模型在训练数据上的表现不佳,无法很好地拟合数据的真实模式和关系。
当模型出现欠拟合时,其预测能力较弱,无法很好地捕捉数据中的复杂性和变化。
训练数据(Training Data)
训练数据是指在机器学习和深度学习中用于训练模型的数据集合。它包含输入样本和对应的标签或目标值,用于模型学习和参数调整。
无监督学习(Unsupervised Learning)
是机器学习的一种学习范式,与监督学习不同它不依赖于标签或目标值进行训练,而是从未标记的数据中自动发现模式、结构和关联性。
验证数据(Validation Data)
在机器学习和模型评估中使用的一部分数据集,用于评估和验证训练好的模型的性能和泛化能力。
迁移学习(Transfer Learning)
是机器学习领域中的一种技术,旨在将在一个任务上学习到的知识和经验迁移到另一个相关任务上,以提高新任务的性能和效果。
迁移学习通过利用先前学习的知识,可以在新任务上利用较少的数据和计算资源来获得更好的结果。
零样本学习(Zero-shot Learning)
是一种机器学习方法,旨在解决在没有标记样本的情况下进行分类或识别任务的问题。
与传统的监督学习不同,零样本学习允许模型在面对未见过的类别时进行推理和预测。
向量(Vector)
线性代数中的基本概念,用于表示具有大小和方向的量。
它由一组有序的数值组成,并在数学上常用列向量或行向量的形式表示。
上一篇
下一篇
《量化投资 以python为工具》知识点
python实用代码
2023中国量化科技白皮书数据解读
numpy polyfit 多项式拟合
沪深300指数和沪深300ETF 对比分析
时序数据趋势判断