theory_prompt
陶恒franz
2022-11-13
Prompt方法在Template设计、Answer构建以及预训练模型选择都需要人工参与 prompt Prompt流程 主题 URL prompt construction answer construction 子主题 answer prediction answer-label mapping https://github.com/kiedtl/awesome-prompts https://github.com/thunlp/OpenPrompt#use-openprompt Prompt介绍 搜索引擎 NLP领域的定义 Prompt is a cue given to the pre-trained language model to allow it better understand human's questions Prompt设计要点 Prompt Template Engineering Answer Engineering Pre-trained Model Choice Expanding the Paradigm Prompt-based Training Strategies paper AutoPrompt 《AutoPrompt: Eliciting knowledge from languagemodels with automatically generated prompts (Shin+, 2020)》 核心思想 通过梯度找出的trigger word和mask拼接在文本中,形成一个语义上不通顺、但是对 模型而言却具有合理提示的样本,并且将label预测转换为masked token的预测(即 完形填空问题) P-tuning 核心思想 只需要知道模版由哪些token组成,该插入到哪里,插入后能不能完成我们的下游任 务,输出的候选空间是什么 不管是人工构建Template还是AutoPrompt方法,token都来自字典,有一个问题: Template真的需要是“自然语言”吗? The Limitation of PromptTuning& P-tuning 缺少通用性 P-tuning匹敌fine-tuning要求 – 10B左右或更高的参数量 – 特殊的初始化技巧(label initialization) – LMadaptation 如何惠及1亿~10亿中小规模的模型? 缺少任务通用性 简单任务:GLUE& SuperGLUE – P-tuning表现良好 困难任务:需要知识和长文本理解 – 序列标注:命名实体识别,阅读理解…… 更现实的问题:无含义标签 – 不是所有任务的标签都有语义 – 序列标注中难以利用语义标签 P-tuning V2 《P-Tuning v2:Prompt Tuning Can Be Comparable to Fine-tuningUniversally Across Scales and Tasks》 The Four Paradigms for NLP 一文跟进Prompt进展!综述+15篇最新论文逐一梳理 https://mp.weixin.qq.com/s/vyKCCjAEbuOxpKOd6zhz3w https://thunlp.github.io/OpenPrompt/ prompt example 不同任务的输入、模板和 answer 示例 手动设计的常用 prompt prompt理论 怎样描述样本模式 基于统计的表示方法 将聚簇的结果分为纯簇、多数类簇、杂簇、低覆盖簇、未覆盖簇和散点6种情况 基于符号知识的表示方法 凡本身能表示一种概念者,叫做实词;凡本身不能表示一种概念,但作为语言结构的 工具者,叫做虚词。实词的分类,当以概念的种类为根据;虚词的分类,当以其在句 中的职务为根据 prompot后续工作计划 构建多任务Prompt统一模型,主要包括:1)构建多任务数据集;2)设计Prompt; 3)基于预训练LM模型多任务预训练;本文采取T5作为初始化的LM; 评估未见任务的zeroshot性能,主要工作是:基于【Prompt遗传搜索算法】,针对未 见的新任务构建自适应的Prompt。