当前位置: 首页 > news >正文

重排序模型解读:gte-multilingual-reranker-base 首个GTE系列重排模型诞生

模型介绍

gte-multilingual-reranker-base 模型是 GTE 模型系列中的第一个 reranker 模型,由阿里巴巴团队开发。

在这里插入图片描述

模型特征:

  • Model Size: 306M
  • Max Input Tokens: 8192

benchmark

关键属性:

  • 高性能:与类似大小的 reranker 模型相比,在多语言检索任务和多任务表示模型评估中实现最先进的 (SOTA) 结果。
  • 训练架构:使用仅编码器 transformers 架构进行训练,从而获得更小的模型尺寸。与以前基于仅解码 LLM 架构的模型(例如 gte-qwen2-1.5b-instruct)不同,该模型对推理的硬件要求较低,推理速度提高了 10 倍。
  • 长上下文:支持高达 8192 个令牌的文本长度。
  • 多语言功能:支持 70 多种语言。

在这里插入图片描述

评价

还处于新出现的阶段,是新晋的GTE重排序模型,模型综合性能可以,商业化需要在生产/测试环境中实测过才好上生产。

huggingface:https://huggingface.co/Alibaba-NLP/gte-multilingual-reranker-base

paper:https://arxiv.org/pdf/2407.19669

建议安装 xformers 并启用 unpadding 来加速,参考enable-unpadding-and-xformers

地址:https://huggingface.co/Alibaba-NLP/new-impl#recommendation-enable-unpadding-and-acceleration-with-xformers

除了开源的GTE系列机型外,GTE系列机型在阿里云上也以商业API服务的形式提供。请注意,商业 API 背后的模型与开源模型并不完全相同。

用法示例

python 调用示例:
使用 Huggingface transformers (transformers>=4.36.0)

import torch
from transformers import AutoModelForSequenceClassification, AutoTokenizermodel_name_or_path = "Alibaba-NLP/gte-multilingual-reranker-base"tokenizer = AutoTokenizer.from_pretrained(model_name_or_path)
model = AutoModelForSequenceClassification.from_pretrained(model_name_or_path, trust_remote_code=True,torch_dtype=torch.float16
)
model.eval()pairs = [["中国的首都在哪儿","北京"], ["what is the capital of China?", "北京"], ["how to implement quick sort in python?","Introduction of quick sort"]]
with torch.no_grad():inputs = tokenizer(pairs, padding=True, truncation=True, return_tensors='pt', max_length=512)scores = model(**inputs, return_dict=True).logits.view(-1, ).float()print(scores)# tensor([1.2315, 0.5923, 0.3041])

云api地址:https://help.aliyun.com/zh/model-studio/text-rerank-api

http://www.xdnf.cn/news/495775.html

相关文章:

  • 【计算机视觉】论文精读《基于改进YOLOv3的火灾检测与识别》
  • 区块链可投会议CCF C--IPCCC 2025 截止6.7 附录用率
  • 2024 山东省ccpc省赛
  • 数据库——SQL约束窗口函数介绍
  • windows触摸板快捷指南
  • 一二维前缀和与差分
  • C++学习-入门到精通-【7】类的深入剖析
  • 【Redis】redis用作缓存和分布式锁
  • 湖北理元理律师事务所:科学债务管理模型构建实录
  • 无法加载文件 E:\Program Files\nodejs\npm.ps1,因为在此系统上禁止运行脚本
  • 支持同步观看的媒体服务器GhostHub
  • 【Linux笔记】——线程互斥与互斥锁的封装
  • 使用 Python 连接 Oracle 23ai 数据库完整指南
  • 小黑独自咖啡厅享受思考心流:82. 删除排序链表中的重复元素 II
  • DAY28-类的定义和方法
  • 计算机视觉与深度学习 | LSTM应用于数据插值
  • 下集:一条打包到底的静态部署之路
  • JMeter 教程:编写 POST 请求脚本访问百度
  • SQL Server 与 Oracle 常用函数对照表
  • 二进制与十进制互转的方法
  • 使用Maven部署WebLogic应用
  • 信贷风控笔记6——风控常用指标(面试准备14)
  • MATLAB学习笔记(六):MATLAB数学建模
  • Uniapp、Flutter 和 React Native 全面对比
  • 分糖果--思维+while判断
  • 基于QT和FFmpeg实现自己的视频播放器FFMediaPlayer(一)——项目总览
  • 芯片生态链深度解析(二):基础设备篇——人类精密制造的“巅峰对决”
  • StarRocks MCP Server 开源发布:为 AI 应用提供强大分析中枢
  • gcc 源码目录文件夹功能简介
  • 从辅助到协作:GitHub Copilot的进化之路