Phi-3-mini-4k-instruct_fp16

我要开发同款
匿名用户2024年07月31日
30阅读
所属分类ai、phi3、Pytorch、conversational、nlp、ONNXRuntime、DML、ONNX
开源地址https://modelscope.cn/models/AI-ModelScope/Phi-3-mini-4k-instruct_fp16
授权协议mit

作品详情

Phi-3 Mini-4K-Instruct ONNX model for onnxruntime-web

This is the same models as the official phi3 onnx model with a few changes to make it work for onnxruntime-web:

  1. the model is fp16 with int4 block quantization for weights
  2. the 'logits' output is fp32
  3. the model uses MHA instead of GQA
  4. onnx and external data file need to stay below 2GB to be cacheable in chromium
声明:本文仅代表作者观点,不代表本站立场。如果侵犯到您的合法权益,请联系我们删除侵权资源!如果遇到资源链接失效,请您通过评论或工单的方式通知管理员。未经允许,不得转载,本站所有资源文章禁止商业使用运营!
下载安装【程序员客栈】APP
实时对接需求、及时收发消息、丰富的开放项目需求、随时随地查看项目状态

评论