Skip to main content

黑洞资源笔记

  1. SocraSynth是一个多LLM Agent推理平台,通过条件统计和连续论证来增强上下文,并通过可调节的辩论争议水平,解决了大型语言模型在偏见、幻觉和推理能力不足方面的问题,提供了全面的评估和增强合作的功能。
  2. Aya模型:一个513M参数的多语种语言模型,能理解和遵循101种语言的指令。

    Aya数据集是迄今为止最全面的多语种指令微调数据集,包含114种语言的5.13亿个提示和补全,完全开源。它为自然语言理解、摘要和翻译任务中的未服务语言提供了基础。
  3. OpenAI为ChatGPT和GPTs增加记忆能力 | blog

    OpenAI正在测试ChatGPT的记忆能力,使其能够记住用户的讨论内容,从而提高未来聊天的有效性,用户可以控制ChatGPT的记忆。记忆可以让ChatGPT记住用户的偏好和详细信息,从而提供更加个性化和连贯的对话。例如记住用户喜欢的会议纪要格式、拥有的咖啡店细节、孩子的喜好等。

    用户可以随时关闭记忆功能,也可以让ChatGPT遗忘特定记忆或清除所有记忆,删除聊天不会删除其记忆。

    OpenAI可能会使用用户提供的内容(包括记忆)来改进模型,用户可以通过数据控制关闭此功能。可以使用临时聊天功能进行不需要记忆的对话。

    自定义指令可以让ChatGPT更好地了解用户及回复方式。记忆可以补充聊天中获得的信息。团队版和企业版用户可以通过记忆更高效地使用ChatGPT,例如记住格式偏好、编程语言等,企业版用户可以关闭组织的记忆功能。

    GPTs也将拥有独立的记忆。建造者可以选择为GPTs开启记忆,用户与不同GPTs的记忆是独立的。OpenAI将关注记忆带来的隐私和安全问题,避免主动记住敏感信息。
  4. Chat With RTX:NVIDIA的本地聊天机器人项目

    Chat With RTX让用户可以个性化训练一个连接自定义内容(文档、视频等)的大型语言模型,并与其聊天获取相关回复。

    Chat With RTX利用了检索增强型生成(RAG)、TensorRT-LLM和RTX加速,可以快速从自定义聊天机器人中获取与上下文相关的回复。它支持各种文件格式,包括文本、pdf、doc/docx、xml等。用户可以指向含有这些文件的文件夹,应用可以在几秒内加载它们。

    Chat With RTX技术演示基于GitHub上的TensorRT-LLM RAG开发者参考项目构建。开发者可以基于该项目开发部署自己的RAG应用。

    Chat With RTX需要Windows 11系统,NVIDIA GeForce RTX 30/40系列或支持TensorRT-LLM的GPU,16GB以上RAM。

    RTX GPU通过TensorRT-LLM可以实现下一级别的AI性能,提供增强的创造力、生产力,以及极快的游戏体验。

    NVIDIA提供了各种面向开发者的生成AI工具和面向企业的解决方案。
  5. DataDreamer:一个强大的开源Python库,用于提示、合成数据生成和训练工作流,旨在简单、高效,且适用于研究。

    使用DataDreamer,可以轻松创建和运行多步骤的提示工作流,生成合成数据集,对模型进行训练。