Command Palette

Search for a command to run...

Human Like DPO Dataset 大模型对话微调数据集

Human Like DPO Dataset 是一个专门设计用于提升大语言模型对话流畅性和参与度的数据集。它适用于直接偏好优化 (DPO) 等格式,旨在引导模型生成更像人类的响应。该数据集涵盖了 256 个主题,包含 10,884 个样本,这些样本分布在技术、日常生活、科学、历史和艺术等多个领域。

每个样本都包含 3 个部分:对话问题、类似人类的反应和正式回应。对话问题设计得自然且有趣,反映了日常人类对话的内容;类似人类的反应则是模仿人类互动产生的自然、对话式的答案;而正式回应则体现了传统 AI 回应的结构化和专业性。

该数据集可用于微调大型语言模型,以提高对话的连贯性,减少机械或非人性化的回应,并增强对话系统中的情商。通过这种方式,Human-Like-DPO-Dataset 为开发更自然、更人性化的对话系统提供了有力支持。相关论文成果为「Enhancing Human-Like Responses in Large Language Models」。

数据集示例

Human-Like-DPO-Dataset.torrent
做种 2正在下载 0已完成 140总下载次数 355
  • Human-Like-DPO-Dataset/
    • README.md
      1.83 KB
    • README.txt
      3.65 KB
      • data/
        • Human-Like-DPO-Dataset.zip
          19.05 MB

用 AI 构建 AI

从想法到上线——通过免费 AI 协同编程、开箱即用的环境和市场最优价格的 GPU 加速您的 AI 开发

AI 协同编程
即用型 GPU
最优价格
立即开始

Hyper Newsletters

订阅我们的最新资讯
我们会在北京时间 每周一的上午九点 向您的邮箱投递本周内的最新更新
邮件发送服务由 MailChimp 提供