首页
资讯
GPT
元宇宙
区块链
操作系统
数字产品
供应商
大模型
登录
查产品
查企业
查资料
热门搜索:
数字员工
数字孪生
数字化转型
关注公众号
分类
全部
文本
语言
图像
视频
语音
音频
编码
多模态
推理
排序
向量
行业
其他
上下文
全部
<=8k
<=32k
<=64k
<=128k
>128k
热门
全部
DeepSeek
GPT
Claude
通义千问
GLM
Doubao
元宝
排序
默认
发布时间
热度
ChatGLM4-9B-8K
多模态
16K
GLM-4-9B 是智谱 AI 推出的最新一代预训练模型 GLM-4 系列中的开源版本。
2025年1月9日
智谱AI
jina-embeddings-v3
图像理解
16K
基于Jina-XLM-RoBERTa架构,该模型支持旋转位置嵌入(RoPE),能够处理长达8192个标记的长输入序列。 此外,它还具备5个LoRA适配器,以高效生成特定任务的嵌入。
2025年3月13日
其他
bge-large-en
图像理解
4K
由智源研究院研发的英文版文本表示模型,可将任意文本映射为低维稠密向量,以用于检索、分类、聚类或语义匹配等任务,并可支持为大模型调用外部知识。
2023年12月7日
智源研究院
bge-large-zh
图像理解
4K
由智源研究院研发的中文版文本表示模型,可将任意文本映射为低维稠密向量,以用于检索、分类、聚类或语义匹配等任务,并可支持为大模型调用外部知识。
2025年3月13日
智源研究院
bge-large-zh-v1.5
图像理解
4K
由智源研究院研发的中文版文本表示模型,可将任意文本映射为低维稠密向量,以用于检索、分类、聚类或语义匹配等任务,并可支持为大模型调用外部知识。
2025年3月13日
智源研究院
jina-reranker-v2-base-multilingual
重排序
基于Transformer的模型,已经针对文本重排序任务进行了微调,这是许多信息检索系统中的关键组件。
2025年3月13日
其他
bge-reranker-v2-m3
重排序
北京智源人工研究院研发的轻量级重排序模型,具备强大的多语言能力,易于部署,具有快速推理能力。
2025年3月13日
智源研究院
Qwen3-Reranker-4B
重排序
基于 Qwen3 系列的密集基础模型,专门设计用于排序任务。继承了基础模型卓越的多语言能力、长文本理解和推理技能,在排序任务中取得了显著进展。
2025年8月15日
通义实验室
bce-reranker-base_v1
重排序
4K
由网易有道开发的跨语种语义表征算法模型,擅长优化语义搜索结果和语义相关顺序精排,支持中英日韩四门语言,覆盖常见业务领域,支持长package rerank(512~32k)。[了解更多>](https://huggingface.co/maidalun1020/bce-reranker-base_v1)
2024年3月28日
其他
tao-8k
图像理解
16K
tao-8k是由Huggingface开发者amu研发并开源的长文本向量表示模型,支持8k上下文长度,模型效果在C-MTEB上居前列,是当前最优的中文长文本embeddings模型之一。 [了解更多>](https://huggingface.co/amu/tao-8k)
2023年12月21日
其他
gme-Qwen2-VL-2B-Instruct
图像理解
16K
GME-Qwen2VL系列统一的多模态Embedding模型基于Qwen2-VL 多模态大型语言模型 (MLLMs)训练。
2025年5月29日
通义实验室
Qwen3-Embedding-0.6B
图像理解
16K
Qwen3 Embedding 模型系列是 Qwen 家族的最新专有模型,专门设计用于文本嵌入和排序任务。基于 Qwen3 系列的密集基础模型,它提供了各种大小(0.6B、4B 和 8B)的全面文本嵌入和重排序模型。
2025年7月4日
通义实验室
1
……
35
36
37
……
48
资讯
梁文锋内部透露:DeepSeek V4将于4月下旬发布
五款头部AI平台半数医学建议存在误导性,研究称AI...
狂揽4万星!换掉OpenClaw太爽了,5美元就能养个AI打...
阿里巴巴新设集团技术委员会:升级通义大模型事业...
DeepSeek 上线专家模式
智谱 AI 财报炸场,Token 价值暴涨、核心指标直追 ...
中兴通讯联合字节跳动研发新一代豆包AI手机,预计2...
国家数据局确认 Token中文名:词元
AI养肥了腾讯云,马化腾:首次规模化盈利
Token调用量暴增,阿里云宣布AI算力和存储产品最高...
人工导购
咨询服务
回顶部
联系我们
关注公众号
立刻获取最新消息及人工咨询