Skip to main content

黑洞资源笔记

  1. MagCode:让所有智能手机都能享受NFC支付体验 | paper

    香港理工大学的研究人员开发出一种技术,即使是不支持NFC的智能手机,也能通过摄像头拍摄NFC读取器来完成支付。

    目前,大约有一半的智能手机要么没有装载NFC模块,要么由于安全原因不能使用NFC功能。这项技术可以解决这一问题。

    工作原理:用户只需将手机的摄像头靠近NFC读取器,摄像头的屏幕上会出现特定的条纹模式。这些条纹实际上是用于数据传输的编码,通过读取这些编码,可以实现与NFC相同的数据交换。

    技术灵感:这项技术是基于一个现象,即NFC读取器产生的磁场会对手机的CMOS图像传感器产生无害的磁干扰(Magnetic Interference,MI)。当手机摄像头靠近NFC读取器时,这种磁干扰会在摄像头的屏幕上产生类似于条形码的条纹模式。

    性能表现:该技术已经通过11种不同的智能手机进行了测试,所有手机都表现出非常高的性能。特别是与基于磁感应的方法相比,数据传输速度快了58倍。
  2. 百川智能发布Baichuan2-192K大模型 | 详情

    上下文窗口长度高达192K,是目前全球最长的上下文窗口,能够一次处理约35万个汉字。

    官方宣称:Baichuan2-192K不仅在上下文窗口长度上超越Claude2,在长窗口文本生成质量、长上下文理解以及长文本问答、摘要等方面的表现也全面领先Claude2。

    10项长文本评测7项取得SOTA,全面领先Claude2

    Baichuan2-192K在Dureader、NarrativeQA、LSHT、TriviaQA等10项中英文长文本问答、摘要的评测集上表现优异,有7项取得SOTA,显著超过其他长窗口模型。

    此外,LongEval的评测结果显示,在窗口长度超过100K后Baichuan2-192K依然能够保持非常强劲的性能,而其他开源或者商用模型在窗口长度增长后效果都出现了近乎直线下降的情况。Claude2也不例外,在窗口长度超过80K后整体效果下降非常严重。

    Baichuan2-192K正式开启内测,已落地法律、媒体等诸多真实场景

    Baichuan2-192K现已正式开启内测,以API调用的方式开放给百川智能的核心合作伙伴,已经与财经类媒体及律师事务所等机构达成了合作,将Baichuan2-192K全球领先的长上下文能力应用到了传媒、金融、法律等具体场景当中,不久后将全面开放。
  3. 具有3D预览功能的购物APP程序演示 | github

    使用了 Reanimated(React Native的动画库) 和 ThreeJS ,该应用提供了一种3D预览功能,让用户能够更直观地查看商店中的商品。
  4. 孙思邈中文医疗大模型(Sunsimiao)

    希望能够遵循孙思邈的生平轨迹, 重视民间医疗经验, 不断累积中文医疗数据, 并将数据附加给模型, 致力于提供安全、可靠、普惠的中文医疗大模型.

    目前, Sunsimiao是由baichuan-7B和ChatGLM-6B系列在十万级高质量的中文医疗数据中微调而得, 后续将收集更多数据, 扩充模型能力, 不断迭代更新. 相关细节工作正在整理。
  5. 一个实用的地图生成器:DataV.GeoAtlas | #生成器 #地图

    点关注的省份,会展现精致的省级轮廓地图,再点具体城市可以深入到市县级的地理细节。允许以SVG格式轻松下载地图,以便随时导入到PPT中进行编辑。相比网上随意搜寻的图像,这种方式不仅美观,还具有极高的便捷性和可编辑性。
  6. 一个在线设计工具,专门用于快速创建精美PPT和文章背景图。

    在网站的右侧面板中,用户可以轻松进行多种样式调整,包括但不限于调整图片尺寸、背景色、图案颜色,以及图案的样式和大小。设计完成后,用户还可以选择将作品下载为 SVG 或 PNG 格式。无需登录。

    Haikei | #工具
  7. LLM 应用开发实践笔记 | llm-books | #笔记

    理论学习部分由Langchain、LlamaIndex等开源工具文档、一些最佳实践的技术博客、论文阅读三部分组成。在每个工具的理论学习结束后,辅以实践性代码帮助理解。最后会将各个模块整合起来实现一个信息处理系统。
  8. 压缩速度极快的桌面端图片压缩软件:极速图片压缩器 | #工具

    极速压缩:使用了压缩速度极快的图片压缩引擎,能在极短的时间内完成压缩,同时还能保持良好的压缩质量。

    极限支持:最高支持单张体积可达 10GB 的图片,并且对图片的总数量和总体积没有任何限制。

    多种格式:支持 JPG、JPEG、WEBP、AVIF、PNG、HEIF、TIFF、TIF 等多种常见的图片格式。

    本地压缩:完全在客户端本地执行压缩,有无网络均可,压缩过程中不会上传图片,充分保护隐私安全。

    功能丰富:提供了设置压缩后分辨率、格式转换、调节压缩质量、选择保存路径、保留图片 Exif 信息等多项功能。

    进度提示:压缩过程中可实时显示压缩进度,包括图片总数、成功和失败数量、等待中数量,随时掌握压缩情况。

    主题模式:提供了深色、浅色两种主题模式,可根据实际需要手动选择主题,也可跟随系统主题自动切换。

    添加方式:可通过窗口选择、复制粘贴、鼠标拖拽等多种方式添加图片,也可直接添加文件夹,软件会自动识别内部的图片。
  9. 个性化Copilot编程助手实战 | personal-copilot

    这是一个根据 GitHub 组织的公共存储库中的代码内容进行微调的代码huggingfaceLLM,介绍了从GitHub克隆代码库、提取和清理代码数据的流程。对StarCoder等模型进行了全微调和QLoRA参数高效微调,并进行了比较。展示如何组合不同的适配器进行多任务训练,以实现代码补全和问答能力。

    此外提供了将模型部署为推理端点、在VS Code中使用的详细流程以及在Mac M1芯片上运行小模型的训练和使用方法。
  10. (Meta官方) Llama 2 快速入门指南 | link | #指南

    包括获取模型、托管、使用指南等方面内容,提供了在AWS、GCP、Hugging Face等平台上托管Llama 2的详细步骤,将Llama 2与Code Llama、LangChain等框架集成的指南讲解利用量化和验证技术来评估微调效果。另外还有Llama 2的社区资源,包括GitHub库、性能比较、微调数据集等。
  11. 离线中英文词典数据库 | ECDICT | #数据库 #词典

    这是一份英文->中文字典的双解词典数据库,根据各类考试大纲和语料库词频收录数十万条各类单词的英文和中文释义,并按照各类考试大纲和词频进行标注。 ​​​

    “最初开发看书软件时需要给软件添加一个内嵌字典,在网上找到了一份别人提供的 EDictAZ.txt 的文本文件,里面有差不多两万英文单词的释义,于是开始用这个文件来提供字典查询,用着用着不够用了,又找到一份四六级到 GRE 包含释义的词汇表,但是缺少音标,于是写了个爬虫从各种资料里面把音标给爬下来,外加自己补充了一些组成了一份三万基本词汇的数据库。

    其后数年根据各种资料和网友贡献词库增长到 10 万左右,又找到 Linux 下面的 cdict-1.0-1.rpm 这个开源字典数据(mdict 的主词库也是根据 cdict 转换得到),并按照英国国家语料库的前 16 万单词进行校对,补全很多语料库里词频较高但是却没有收录的词条。”