首页 最新段子

好的提示词是获得高质量答案的关键
提示词写作公式=定角色+述问题+定目标+补要求
实例:
我是一个喜欢历史文化的旅游者,
计划在苏州游玩三天,请设计一份详细的旅游攻略。
攻略中需要包括每天的行程安排、景点推荐、餐饮住宿以及交通方式等信息。
同时,请注意避开网红景点,多推荐有历史厚重感的地方。
#投资策略  
20250205 科创板与创业板走势背离  
科创板与创业板轮动策略
宽基指数轮动策略
段永平:投指数就是投国家
买股票就是买公司
买指数就是买国运
相信国运,买指数基金
段永平对指数基金的看法:
投指数就是投国家
买股票就是买公司,买指数就是买国运
在市场恐慌时买入,能够有效分散风险并分享国家经济的整体增长
选择指数基金时,应关注其成分股的构成、整体估值水平以及费率
交易最难的不是技术,
而是人性的洞察力,
是颠倒众生的那份清醒,
是敬畏市场的那份冷静,
自信但不自大,谦卑而不懦弱。
心不死,则道不生。
敢于自我否定,才能不断突破!
LLM  大型语言模型 Large Language Model,
是一种基于深度学习的神经网络模型,主要用于处理和生成自然语言文本。
其核心架构通常基于 Transformer 模型,能够执行多种任务,如文本生成、理解、翻译和问答等
《征服市场的人》《the man who solved the market》
作为对冲基金,我们的使命是,提高中国二级市场的有效性
--梁文峰
基金分红三个重要日期,
一是权益登记日,二是除息日,三是现金红利发放日。
权益登记日持有基金才能参与此次分红
零信任(zero-trust)代表了新一代的网络安全防护理念,
它的关键在于打破默认的“信任”,用一句通俗的话来概括,就是“持续验证,永不信任”。 
默认不信任企业网络内外的任何人、设备和系统,基于身份认证和授权重新构建访问控制的信任基础,
从而确保身份可信、设备可信、应用可信和链路可信。 
基于零信任原则,可以保障办公系统的三个“安全”:终端安全、链路安全和访问控制安全。
PMML(Predictive Model Markup Language)是一种用于描述数据挖掘和机器学习模型的通用规范。
它使用统一的XML格式来表示模型,使得不同平台和工具生成的模型可以互相兼容。
PMML的主要优势在于其跨平台的特性,能够将模型从一个环境迁移到另一个环境中进行部署和预测。
AIGC   人工智能生成内容 Artificial Intelligence Generated Content
使用人工智能模型生成内容 ,这些内容包括图像、音频、文本、视频、3D 模型等
AGI(Artificial General Intelligence,人工通用智能)
它可以理解、学习和应用知识跨越各种不同领域,功能上等同于人类智能。
与专用人工智能(AI)不同,AGI 能够执行任何智力任务,具备自我意识和自适应学习能力。
AGI 的研发目标是创造出可以广泛地模拟人类认知能力的智能系统。
大模型通常指的是大规模的人工智能模型,这类模型通过训练大量的数据来获得广泛的知识和能力。
这些模型通常具有庞大的参数数量,能够处理复杂的任务,如自然语言理解、图像识别、语音识别等。
闭源大模型包括 OpenAI 的 GPT 系列和 Google 的 BERT。
开源大模型以 Meta 的 Llama 系列,2024 年 4 月,Llama3 发布,包括 8B 和 70B 模型。
8B 是指 Llama3 模型的参数量为 80 亿(8 billion),
即模型包含 80 亿个参数,用于处理复杂任务并提供较高的推理效率
Llama  全称 Large Language Model Meta AI, 大型语言模型Meta AI
上下文窗口指的是模型一次可以处理的最大文本长度。
这个长度通常用 tokens 来表示,每个标记可以是一个单词、子词或单个字符,具体取决于编码方式。
上下文窗口大小决定了模型在回答问题或生成文本时可以利用的上下文范围。
窗口越大,模型就能处理越长的上下文,对理解长文本内容非常重要。
较大的窗口允许模型处理更长的文本片段,从而提高在长文本任务中的表现,如长篇对话、文档生成和分析等。
在 AI 大模型中,常用的两个单位是 B 和 T。
B(十亿,Billion)
对于 AI 大模型来说,B 一般用于描述模型的参数数量。
例如,具有 50B 参数的模型代表这个模型有 50 亿个参数。
Ollama3 有 8B 和 70B,Phi-3-mini 有 3.8B 参数等。
T(万亿,Trillion)
在 AI 大模型中,T 常用来表示模型在训练中处理的 Token 数量。
Token 是指模型处理的基本单元,可以是一个单词、子词,或者字符等。
在大规模预训练语言模型的训练中,通常会提到模型是在多少个 Token 上进行学习的,以表明模型的训练规模和数据量。
例如:LLaMA3 语言模型使用了超过 15T 个 token 进行训练。
六大类 AI 工具,分别包括:问答,图像,视频,AI编程,AI提示词 和 AI大模型
豆包、Kimi、通义千问和文心一言的用户数 
豆包:月活用户规模为3042万
Kimi:月活用户规模为625万
通义千问:月活用户规模为466万
文心一言:月活用户规模为424万

第一页 上一页 下一页 最后一页