豆包AI是字节跳动在2023年推出的智能助手
图像生成 帮我写作 AI搜索 AI阅读 学术搜索 解题答疑
音乐生成 数据分析 翻译 网页摘要 语音通话 AI编程
在国内众多AI产品中,豆包AI可以说是最活跃的产品之一。
它不仅用户数量多,而且功能丰富,特别是在教育、创作等领域都有很好的表现。
具备多模态能力,不仅能理解文字,还能看懂图片、处理音频。
实际应用场景
学习场景:解题、写作业、知识点讲解
工作场景:写文案、做PPT、数据分析
生活场景:旅游规划、健康咨询、生活建议
创作场景:写文章、作诗、创作音乐
豆包、Kimi、通义千问和文心一言的用户数
豆包:月活用户规模为3042万
Kimi:月活用户规模为625万
通义千问:月活用户规模为466万
文心一言:月活用户规模为424万
六大类 AI 工具,分别包括:问答,图像,视频,AI编程,AI提示词 和 AI大模型
在 AI 大模型中,常用的两个单位是 B 和 T。
B(十亿,Billion)
对于 AI 大模型来说,B 一般用于描述模型的参数数量。
例如,具有 50B 参数的模型代表这个模型有 50 亿个参数。
Ollama3 有 8B 和 70B,Phi-3-mini 有 3.8B 参数等。
T(万亿,Trillion)
在 AI 大模型中,T 常用来表示模型在训练中处理的 Token 数量。
Token 是指模型处理的基本单元,可以是一个单词、子词,或者字符等。
在大规模预训练语言模型的训练中,通常会提到模型是在多少个 Token 上进行学习的,以表明模型的训练规模和数据量。
例如:LLaMA3 语言模型使用了超过 15T 个 token 进行训练。
上下文窗口指的是模型一次可以处理的最大文本长度。
这个长度通常用 tokens 来表示,每个标记可以是一个单词、子词或单个字符,具体取决于编码方式。
上下文窗口大小决定了模型在回答问题或生成文本时可以利用的上下文范围。
窗口越大,模型就能处理越长的上下文,对理解长文本内容非常重要。
较大的窗口允许模型处理更长的文本片段,从而提高在长文本任务中的表现,如长篇对话、文档生成和分析等。
大模型通常指的是大规模的人工智能模型,这类模型通过训练大量的数据来获得广泛的知识和能力。
这些模型通常具有庞大的参数数量,能够处理复杂的任务,如自然语言理解、图像识别、语音识别等。
闭源大模型包括 OpenAI 的 GPT 系列和 Google 的 BERT。
开源大模型以 Meta 的 Llama 系列,2024 年 4 月,Llama3 发布,包括 8B 和 70B 模型。
8B 是指 Llama3 模型的参数量为 80 亿(8 billion),
即模型包含 80 亿个参数,用于处理复杂任务并提供较高的推理效率
Llama 全称 Large Language Model Meta AI, 大型语言模型Meta AI
AGI(Artificial General Intelligence,人工通用智能)
它可以理解、学习和应用知识跨越各种不同领域,功能上等同于人类智能。
与专用人工智能(AI)不同,AGI 能够执行任何智力任务,具备自我意识和自适应学习能力。
AGI 的研发目标是创造出可以广泛地模拟人类认知能力的智能系统。
AIGC 人工智能生成内容 Artificial Intelligence Generated Content
使用人工智能模型生成内容 ,这些内容包括图像、音频、文本、视频、3D 模型等
PMML(Predictive Model Markup Language)是一种用于描述数据挖掘和机器学习模型的通用规范。
它使用统一的XML格式来表示模型,使得不同平台和工具生成的模型可以互相兼容。
PMML的主要优势在于其跨平台的特性,能够将模型从一个环境迁移到另一个环境中进行部署和预测。
零信任(zero-trust)代表了新一代的网络安全防护理念,
它的关键在于打破默认的“信任”,用一句通俗的话来概括,就是“持续验证,永不信任”。
默认不信任企业网络内外的任何人、设备和系统,基于身份认证和授权重新构建访问控制的信任基础,
从而确保身份可信、设备可信、应用可信和链路可信。
基于零信任原则,可以保障办公系统的三个“安全”:终端安全、链路安全和访问控制安全。
第一页
上一页
下一页
最后一页