海洋大模型
llama2
gpt扩产微调数据集
多agent降低幻觉
ERA-CoT: Improving Chain-of-Thought through Entity Relationship Analysis
刘彦铭
llm实体抽取
显式关系判别
在NQ TriviaQA HotpotQA StretegyQA 2WikiMultihopQA测试
方法
迭代自反馈RAG
1判读是否需要检索
2判断检索的文本是否相关
3分解子问题继续回到问题1,递归
提问
第二篇论文
训练子模型指的是微调吗
第二篇论文
回答一个问题平均耗时、最长耗时需要多久呢,我看到用了很多模型
可否理解为以时间换效果提升
Detoxifying Large Language Modelsvia Knowledge Editing
王梦如
知识编辑
gpt4生成不安全的问题
手动收集攻击手段
gpt4生成安全回复和不安全回复
人工筛查
生成Benchmark
数据集微调
然后使用的模型也只是7B小模型
您微调的数据集大部分是gpt4生成,然后微调Llama2-7b
可否理解您方法带来的的效果提升的来源为GPT4的知识蒸馏
Learning Geometry-Aware Representations for New Intenit Discovery
唐凯
新颖意图发现
Unified Hallucination Detection forMultimodal Large Language Models
王晨曦
多模态大模型幻觉检测
Exploring Collaboration Mechanisms forLLM Agents: A Social Psychology View
张锦添
写作
多agent协作
Datasets
MMLU、MATH、ChessMoveValidity
D High School Multiple-Choice: MMLU (Chemistry, Science, Biology, Physics, Statistics, Math) D Math: MATH (Level3~Level 5) D Chess Move Validity: BlG-Bench Benchmark
大语言模型驱动的合成数据生成、治理与评估
OnLLMs-Driven SvnthetieData Generation, Curation,and Evaluation: A Survey
龙麟
rag合成数据
AutoAct: Automatic Agent Learning from Scratchfor QA via Self-Planning
方润楠
多agent协作提升llm效果