您现在的位置:生物医药大词典 >>添加词汇
 搜索关键词进行编辑:  
以下均为网友搜索,但词库中没有这些词汇,如果您能成为编辑,帮助这些词汇加上释义,就等于帮助所有的朋友!
ID号 词典对应ID 中文名 英文名 缩写 释义 栏目 修改
1615414  0 利弊分析 pros and cons 利弊分析(Pros & Cons) This plugs directly into a wall outlet, as opposed to most charging bricks, which has its pros and cons. —Michael J. Miller, PCMAG, 31 Mar. 2023 And there are certainly pros and cons to it. —Jenelle Riley, Variety, 24 Mar. 2023 For example, write the list of choices, pros and cons and outcomes. —Expert Panel®, Forbes, 16 Mar. 2023 There are pros and cons to both silhouettes. —Christian Allaire, Vogue, 21 Feb. 2023 Both types of sun protection have their pros and cons. —Claire Gillespie, Health, 24 Mar. 2023 Yes | Oscillation: Yes Things to Consider Before Buying a Fan Style There are several popular styles of fans available today, all of which have their own pros and cons. —Camryn Rabideau, Peoplemag, 16 Mar. 2023 Debates about abolishing semiannual clock shifts have raised concerns about everything from teens' sleep habits to the sanctity of Jewish prayer, with pros and cons tied to any suggestion. —Scott Dance, BostonGlobe.com, 10 Mar. 2023 From full-time in-person, hybrid, or fully remote, each model has its pros and cons, depending on the type of industry, the need for face-to-face interactions with customers, and the real estate holdings a company might be stuck with. —Serenity Gibbons, Forbes, 9 Mar. 2023 通用词汇

审核中

1615413  0 合成基准测试 synthetic benchmarking Synthetic Benchmarking(合成基准测试) 含义:指使用 AI 生成的测试数据来评估 AI 的性能,而不是使用真实数据。 例子:Synthetic benchmarking 用于衡量 LLM 在复杂任务上的推理能力。 科技

已审核通过

1615412  0 数据投毒 data poisoning Data Poisoning(数据投毒) 含义:指故意向 AI 训练数据集中引入有害或偏见内容,以影响其行为。 例子:Data poisoning 可能导致 AI 生成错误或偏见内容。 科技

已审核通过

1615411  0 提示注入攻击 prompt injection Prompt Injection(提示注入攻击) 含义:指恶意用户构造特殊提示,诱骗 AI 违反其原有规则或生成不应生成的内容。 例子:有人利用 prompt injection 让 AI 透露本不该泄露的信息。 科技

已审核通过

1615410  0 记忆增强大模型 memory augmented LLM Memory Augmented LLM(记忆增强大模型) 含义:指 AI 具备长期记忆能力,可以跨会话记住并利用之前的交互信息,提高个性化体验。 例子:一些新兴 LLM 采用 memory augmented techniques 以提供更连续的对话体验。 科技

已审核通过

1615409  0 对抗性提示 adversarial prompting Adversarial Prompting(对抗性提示) 含义:通过设计特定输入(prompt),使 AI 生成意想不到或有害的内容,通常用于测试 AI 安全性。 例子:研究人员使用 adversarial prompting 发现 AI 在敏感问题上的漏洞。 科技

已审核通过

1615408  0 上下文窗口 context window Context Window(上下文窗口) 含义:指 AI 模型可以在一次推理过程中处理的最大 token 数量。较长的上下文窗口允许模型处理更长的文本。 例子:GPT-4 Turbo 具有更大的 context window,能记住更长的对话历史。 科技

已审核通过

1615407  0 困惑度 perplexity Perplexity(困惑度) 含义:衡量语言模型对测试数据的预测能力。较低的困惑度意味着模型对文本的理解更准确。 例子:模型的 perplexity 降低,通常表示其语言生成质量提高。 科技

已审核通过

1615406  0 分词处理 tokenization Tokenization(分词处理) 含义:指将文本拆分为较小的单位(tokens),这些单位可以是单词、字符或子词,用于语言模型的输入。 例子:GPT 模型使用 tokenization 将句子拆分成单独的 token。 科技

已审核通过

1615405  0 指令微调 instruction tuning Instruction Tuning(指令微调) 含义:一种训练方法,使 AI 通过理解自然语言指令来执行各种任务,提高可控性和泛化能力。 例子:GPT-4 通过 instruction tuning 变得更能理解复杂问题。 科技

已审核通过

1615404  0 潜在空间 latent space Latent Space(潜在空间) 含义:在深度学习中,指数据被压缩和投影到的隐藏多维空间,模型在该空间中学习数据的特征和模式。 例子:生成式 AI 通过在 latent space 进行采样,创造新的图像或文本。 科技

已审核通过

1615403  0 专家混合模型 MoE (mixture of experts) MoE (Mixture of Experts)(专家混合模型) 含义:一种 AI 体系结构,其中多个专家子模型(experts)协同工作,由一个门控网络选择最佳专家来完成特定任务。 例子:Google 的 Switch Transformer 使用 MoE 来提高效率。 科技

已审核通过

1615402  0 参数扩展 parameter scaling Parameter Scaling(参数扩展) 含义:指增加模型的参数数量,以提升其性能和生成能力。通常,参数越多,模型的能力越强,但计算需求也更大。 例子:OpenAI 的 GPT-4 比 GPT-3.5 具有更大的 parameter scaling,因此更强大。 科技

已审核通过

1615401  0 大模型越狱 LLM jailbreak LLM Jailbreak(大模型越狱) 含义:指通过特定提示(prompt)或技术绕过 AI 的安全限制,使其生成不允许的内容。 例子:研究人员测试 LLM jailbreak 以改进 AI 的安全性。 科技

已审核通过

1615400  0 红队测试 red-teaming Red-Teaming(红队测试) 含义:模拟恶意攻击或滥用 AI,以测试其安全性和鲁棒性。 例子:公司进行 red-teaming 以发现 AI 可能被滥用的方式。 科技

已审核通过

1615399  0 小样本学习 few-shot learning Zero-Shot / Few-Shot Learning(零样本/小样本学习) 含义:Zero-shot 是指 AI 无需示例即可完成任务,而 Few-shot 允许 AI 通过少量示例学习新的任务。 例子:使用 few-shot learning,AI 可以从几个翻译示例中学习新语言。 科技

已审核通过

1615398  0 上下文学习 in context learning 对于大型语言模型来说,即需要大量的数据标记成本,也需要算力成本和时间成本。然而,不同场景下任务的需求是不一样的,不可能根据每个任务都去微调模型。能否不进行微调就让模型学习完成不同的任务呢?答案是可以的,这个神奇的技术称为 上下文学习 (In Context Learning)。它的实现非常简单,只需要给到模型一些引导,将一些事先设定的文本输入到大型语言模型中,就像手把手教人学会某项技能一样,大型语言模型就能神奇的学习到如何处理后续的新任务。遗憾的是,为什么大型语言模型具有上下文学习的能力仍然是一个迷,业内把这个能力称为“涌现”。 科技

已审核通过

1615397  0 监督微调 supervised fine-tuning,SFT) 监督微调(Supervised fine-tuning,简称SFT):微调是一种有监督学习方法,通过在有标签数据上对预训练模型进行进一步训练,以适应特定的任务。这个过程使得模型能够利用预训练阶段学到的通用知识,结合新数据的标签信息,使模型在特定任务上表现更好。 科技

已审核通过

1615396  0 持续训练 continue training Continue training(持续训练): 可能在模型部署后的任何阶段进行。 目的是不断适应新数据,保持模型性能的稳定和提升。 持续训练可以包含后训练作为其中的一个阶段。 科技

已审核通过

1615395  0 人类反馈的强化学习 reinforcement learning from human feedback(RLHF) Post-training(后训练): 发生在预训练之后,模型部署前或部署初期。 针对特定的任务或数据集进行额外训练,以优化模型性能。 可以包括Fine-tuning(微调)和Reinforcement Learning from Human Feedback(RLHF,人类反馈的强化学习)等方法。 科技

已审核通过



成为编辑 - 词典APP下载 - 关于 - 推荐 - 手机词典 - 隐私 - 版权 -链接 - 联系 - 帮助
©2008-至今 生物医药大词典- 自2008年3月1日开始服务 生物谷www.bioon.com团队研发
沪ICP备14018916号-1