Administrator
发布于 2024-07-17 / 20 阅读
0
0

acl2024预发布 zju软院


海洋大模型

llama2

gpt扩产微调数据集

多agent降低幻觉

ERA-CoT: Improving Chain-of-Thought through Entity Relationship Analysis

刘彦铭

llm实体抽取

显式关系判别

在NQ TriviaQA HotpotQA StretegyQA 2WikiMultihopQA测试

方法

迭代自反馈RAG

1判读是否需要检索

2判断检索的文本是否相关

3分解子问题继续回到问题1,递归

提问

第二篇论文

训练子模型指的是微调吗

第二篇论文

回答一个问题平均耗时、最长耗时需要多久呢,我看到用了很多模型

可否理解为以时间换效果提升

Detoxifying Large Language Modelsvia Knowledge Editing

王梦如

知识编辑

gpt4生成不安全的问题

手动收集攻击手段

gpt4生成安全回复和不安全回复

人工筛查

生成Benchmark

数据集微调

然后使用的模型也只是7B小模型

您微调的数据集大部分是gpt4生成,然后微调Llama2-7b

可否理解您方法带来的的效果提升的来源为GPT4的知识蒸馏

Learning Geometry-Aware Representations for New Intenit Discovery

唐凯

新颖意图发现

Unified Hallucination Detection forMultimodal Large Language Models

王晨曦

多模态大模型幻觉检测

Exploring Collaboration Mechanisms forLLM Agents: A Social Psychology View

张锦添

写作

多agent协作

Datasets

MMLU、MATH、ChessMoveValidity

D High School Multiple-Choice: MMLU (Chemistry, Science, Biology, Physics, Statistics, Math) D Math: MATH (Level3~Level 5) D Chess Move Validity: BlG-Bench Benchmark

大语言模型驱动的合成数据生成、治理与评估

OnLLMs-Driven SvnthetieData Generation, Curation,and Evaluation: A Survey

龙麟

rag合成数据

AutoAct: Automatic Agent Learning from Scratchfor QA via Self-Planning

方润楠

多agent协作提升llm效果


评论