Skip to main content

黑洞资源笔记

  1. Twitter离职员工哪去了?——过去90天里,超过500名员工在与埃隆•马斯克的官司中离开了Twitter,据LinkedIn的数据显示,其中许多员工跳槽到Google和Meta等大型科技公司,马斯克曾表示,如果完成收购Twitter,将裁员75% | 详情 Meta and Google are snapping up Twitter employees as Elon Musk plays a game of will-he-won't-he with the company
  2. 运行时超轻量,高效,移植简单的深度学习模型

    MegCC 是一个面向推理的深度学习模型编译器,具有如下特点:

    极其轻量的运行时库 :只编译 mobilenetv1 模型进行推理情况下,strip 符号后,整个运行时二进制大小只有 81KB 。
    高性能 :Arm 上的每一个 Kernel 都是经过人工精心调优的,同样的模型,性能比 MegEngine 好 。
    方便移植:运行时所有 Code 都是纯 C 代码,可以方便在 Arm,X86,裸板中进行移植。
    低内存使用,快启动:模型编译期间会进行内存规划,尽可能的复用内存,并进行静态绑定,减少运行时开销。

    MegCC 主要由两部分组成:

    编译器:负责将模型进行编译,优化,最终生成新模型和对应的 Kernels
    runtime 运行时:运行时需要和生成的 Kernels 结合在一起进行编译,编译完成之后可以加载编译器生成的模型,并计算输出结果
    MegCC 模型编译器是基于 MLIR 框架构建起来的,使用 MLIR 的 IR 进行图优化,内存规划以及 Kernel 生成,目前 MegCC 生成的 Kernel 大多数都是 基于人工优化之后写好的模板生成的。MegCC 支持多种场景的模型编译,不仅仅包含静态 shape 编译,而且还支持动态 shape 的编译,多个模型同时编译,以及同一个模型多种 shape 同时编译,另外为了获得极致的最小运行时库,还提供必要的纯 C 形式的 CV 算子生成。

    模型编译完成之后,MegCC 会生成两个产物,分别是:

    优化之后的新模型: 这个模型里面包含整个计算图的信息,以及每一个 Operator 运行时的内存规划信息,输入输出信息,计算 Kernel 的信息
    运行这些模型对应的 Kernel:上面模型运行时候需要的所有高性能 Kernel 的集合。
    MegCC runtime 会在运行时会加载生成的模型,并调用生成的高性能 Kernel 进行计算,并输出计算结果,目前测试一个可以高效运行 mobilenetv1 的可执行文件大小仅仅只需要 81KB。

    MegCC 现在支持的平台处理器平台有 Arm64/ArmV7/X86/risc-v/单片机, 所有支持的 Operator 列表见:operator lists.

    MegCC
  3. 全栈机器学习工程课程列表

    这是来自伯克利、哈佛、斯坦福和麻省理工学院等顶尖大学的可公开访问的机器学习专家的精选列表。它还包括来自大型和经验丰富的公司的机器学习项目案例研究。该列表按主题和专业领域细分。Python 是首选语言,因为它涵盖了端到端的机器学习工程。

    项目地址 | #机器学习
  4. 这是一个扩展程序,它将跳过 YouTube 视频的赞助片段。赞助商块是一个众包浏览器扩展程序,任何人都可以提交YouTube视频赞助片段的开始和结束时间。一旦一个人提交了此信息,具有此扩展名的其他人将直接跳过赞助细分。

    SponsorBlock Server