OpenAI推出开源GPT-oss-120b与GPT-oss-20b突破性大模型,支持商用与灵活部署!

模型介绍

图片

OpenAI再次推出开源模型,发布了两款突破性的GPT-oss系列大模型,即GPT-oss-120bGPT-oss-20b,为AI领域带来了巨大的创新和发展潜力。这两款模型不仅在性能上与现有的闭源模型媲美,而且在硬件适配性上具有明显优势,为开发者和企业提供了新的应用场景和商业机会。

一、两款模型的参数与性能特点

OpenAI这次开源的两款大模型各有特色,针对不同硬件配置和应用需求提供了解决方案。

图片

模型参数量架构激活参数量性能特点硬件要求
GPT-oss-120b

1170亿

MoE(专家混合)架构

51亿

- 在Codeforces竞赛编程和MMLU通用知识测试中超越o3-mini

- 单张80GB H100 GPU上运行,甚至高端游戏本可基本运行

- 在医疗健康(HealthBench)和竞赛数学(AIME 2025)领域表现优于闭源的o4-mini

GPT-oss-20b

210亿

常规架构

36亿

- 在M3 Pro芯片的MacBook Pro上,以23.72 token/秒生成贪吃蛇游戏代码,性能接近o3-mini

- 仅需16GB内存设备即可驱动,适用于MacBook Pro、新款安卓手机等低配置设备

通过采用MoE架构,OpenAI成功实现了“参数规模”与“运行效率”的平衡,拓展了大模型的应用场景。

二、Apache 2.0 许可:商用与修改的宽松条件

与模型性能同样值得关注的是开源许可条款。此次发布的两款模型均采用Apache 2.0许可证,这意味着企业可以自由商用、修改代码并进行二次分发,无需公开修改后的源代码。相比Meta的Llama 3(限制非商业使用),Apache 2.0许可为企业商用提供了更为宽松的条件。不过需要注意的是,模型的训练数据并未公开,尽管如此,开发者仍可基于现有模型进行微调与部署。

三、生态支持:多方合作助力推广

为进一步推广开源模型,OpenAI已与多个技术合作伙伴达成合作,推动模型应用的广泛部署。

  • 合作伙伴:Azure、AWS、Hugging Face、Ollama、NVIDIA等20多家企业。

  • 模型下载与部署:开发者可以通过Hugging Face

    下载模型权重,并在Ollama进行本地部署;微软还推出了Windows GPU优化版,支持AMD苹果M系列芯片的原生运行。

  • 离线能力:即使在断网环境下,模型仍能调用本地工具(如Python解释器)进行任务生成、数据运算等操作。

四、存在的争议:幻觉率与安全风险

尽管GPT-oss系列模型在硬件适配和性能上表现出色,但仍存在一些问题需要改进。

  • 幻觉率问题:在PersonQA

    测试中,120b模型的错误信息比例高达49%,是o1模型的三倍,这对医疗、法律等要求高精度的场景来说是一个潜在的挑战。

  • 安全风险:由于Apache 2.0

    的商用权限较宽松,可能会被滥用于生成垃圾信息或恶意代码。OpenAI表示已经进行过多轮安全测试,但仍无法完全避免滥用情况的发生。

尽管如此,这一开源举措无疑为AI行业注入了新的活力,打破了部分AI技术的垄断格局,促进了技术的快速发展。

结语:为开发者与企业提供更多选择

对于开发者而言,GPT-oss-20b模型可以帮助打造本地AI助手,提升工作效率;对于企业,GPT-oss-120b模型则为构建专属大模型提供了可行的解决方案。这两款模型为不同需求的用户提供了新的选择和机遇,推动AI领域向更广泛的应用场景发展。

详细信息与技术资源请访问:

GitHub 地址:https://github.com/openai/gpt-oss

hugging face 地址:https://huggingface.co/openai/gpt-oss-20b

hugging face 地址:https://huggingface.co/openai/gpt-oss-120b

modelscope地址:https://modelscope.cn/models/openai-mirror/gpt-oss-20b/summary

modelscope地址:https://modelscope.cn/models/openai-mirror/gpt-oss-120b/summary

ollama 可视化下载模型方法

Ollama 与 OpenAI 合作,将其最新的先进开放权重模型引入 Ollama。20B和120B这两个模型带来全新的本地聊天体验,专为强大的推理能力、代理任务和多样化的开发者用例而设计。

功能亮点

  • Agentic 功能:

    使用模型的原生功能进行函数调用、网页浏览(Ollama 提供内置网页搜索,可以选择启用该功能以使用最新信息扩充模型)、python 工具调用和结构化输出。

  • 完整的思路:

     完全访问模型的推理过程,从而更轻松地进行调试并增强对输出的信任。

  • 可配置的推理力度:

    根据您的具体用例和延迟需求轻松调整推理力度(低、中、高)。

  • 可微调:

     通过参数微调完全根据您的特定用例定制模型。

  • 宽松的 Apache 2.0 许可证:

    自由构建,不受版权限制或专利风险 - 非常适合实验、定制和商业部署。

量化 - MXFP4 格式

OpenAI 利用量化技术来减少 gpt-oss 模型的内存占用。这些模型在训练后会将混合专家 (MoE) 权重量化为 MXFP4 格式,其中每个参数的权重被量化为 4.25 位。MoE 权重占总参数数量的 90% 以上,将这些权重量化为 MXFP4 格式后,较小的模型可以在内存低至 16GB 的系统上运行,而较大的模型则可以在单个 80GB 的 GPU 上运行。

Ollama 原生支持 MXFP4 格式,无需额外量化或转换。Ollama 的新引擎已开发新内核,以支持 MXFP4 格式。

Ollama 与 OpenAI 合作,根据他们的参考实现进行基准测试,以确保 Ollama 的实现具有相同的质量。

20B参数模型

图片

gpt-oss-20b模型专为低延迟、本地或特殊用例而设计。

120B参数模型

图片

gpt-oss-120b该模型专为生产、通用、高推理用例而设计。

NVIDIA 与 Ollama 合作在 GeForce RTX 和 RTX PRO GPU 上加速 gpt-oss

图片

NVIDIA 和 Ollama 正在深化合作,以提升 NVIDIA GeForce RTX 和 RTX PRO GPU 上的模型性能。此次合作使使用 RTX 的 PC 用户能够精准地利用 OpenAI 的 gpt-oss 模型的功能。

我们将继续与 Ollama 合作,并不断改进。未来,我们将发布一篇关于该模型的深入工程文章。

开始

1、下载最新的 Ollama 版本

2、安装模型

图片

3、使用教程

图片

该模型可以直接在 Ollama 的新应用程序中或通过终端下载:

ollama 运行 gpt-oss:20b

ollama 运行 gpt-oss:120b

ollama卸载方法

https://www.uied.cn/circle/85234.html

写在  最后

AI资料

AI学习平台 uied.cn

AI免费工具 uiedtool.com

AI资讯热榜 hot.uied.cn 

AI工具导航 hao.uied.cn/ai

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。
如若转载,请注明出处:http://www.pswp.cn/diannao/94705.shtml
繁体地址,请注明出处:http://hk.pswp.cn/diannao/94705.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

【Unity Plugins】使用ULipSync插件实现人物唇形模拟

一、下载插件ULipSync: 1. 进入Github网址:https://github.com/hecomi/uLipSync/releases/tag/v3.1.4 2. 点击下载下方的unitypackage 3. 安装使用ULipSync的相关的插件 发行者也提到了,在使用的时候需要在Package Manager里安装Unity.B…

基于 Transformer-BiGRU GlobalAttention-CrossAttention 的并行预测模型

1 背景与动机 在高频、多尺度且非平稳的时序场景(如新能源产能预测、金融行情、用户行为流分析)中,单一网络分支 往往难以同时捕获 长程依赖(Transformer 长距离建模优势) 局部细粒信息(循环网络对短期波动敏感) 将 Transformer 与 双向 GRU(BiGRU) 以并行支路组合…

大模型与Spring AI的无缝对接:从原理到实践

摘要:本文系统梳理了大模型知识,以及与Spring AI的集成方案,涵盖本地部署、云服务、API调用三种模式的技术选型对比。通过DeepSeek官方API示例详解Spring AI的四种开发范式(纯Prompt/Agent/RAG/微调),并提供…

linux下实现System V消息队列实现任意结构体传输

以下是一个实现&#xff0c;可以发送和接收任意类型的结构体消息&#xff0c;而不仅限于特定的CustomMsg类型&#xff1a;#include <stdio.h> #include <stdlib.h> #include <string.h> #include <sys/ipc.h> #include <sys/msg.h> #include <…

TCP的三次握手和四次挥手实现过程。以及为什么需要三次握手?四次挥手?

三次握手和四次挥手的实现原理&#xff0c;以及为什么要这样设计&#xff1f;三次握手的实现三次握手的核心角色与参数三次握手的具体步骤第一步&#xff1a;客户端 → 服务器&#xff08;发送 SYN 报文&#xff09;第二步&#xff1a;服务器 → 客户端&#xff08;发送 SYNACK…

Java开发时出现的问题---架构与工程实践缺陷

除语言和并发层面&#xff0c;代码设计、工程规范的缺陷更易导致系统扩展性差、维护成本高&#xff0c;甚至引发线上故障。1. 面向对象设计的常见误区过度继承与脆弱基类&#xff1a;通过继承复用代码&#xff08;如class A extends B&#xff09;&#xff0c;会导致子类与父类…

项目评审管理系统(源码+文档+讲解+演示)

引言 在当今快速发展的商业环境中&#xff0c;项目评审和管理是确保项目成功的关键环节。项目评审管理系统作为一种创新的数字化工具&#xff0c;通过数字化手段优化项目评审和管理的全流程&#xff0c;提高项目管理效率&#xff0c;降低风险&#xff0c;提升项目成功率。本文将…

ComfyUI 安装WanVideoWrapper

目录 方法2&#xff1a;通过 ComfyUI-Manager 安装 方法3&#xff1a;手动下载并解压 测试代码&#xff1a; WanVideoWrapper 方法2&#xff1a;通过 ComfyUI-Manager 安装 在 ComfyUI 界面顶部找到 Manager&#xff08;管理器&#xff09;选项。 进入 Install Custom Nod…

react合成事件大全,如onClick,onDrag

1. 鼠标事件onClick - 点击事件onContextMenu - 右键菜单事件onDoubleClick - 双击事件onDrag - 拖拽事件onDragEnd - 拖拽结束事件onDragEnter - 拖拽进入目标区域事件onDragExit - 拖拽离开目标区域事件onDragLeave - 拖拽离开事件onDragOver - 拖拽悬停事件onDragStart - 拖…

从《中国开源年度报告》看中国开源力量的十年变迁中,Apache SeaTunnel 的跃迁

如果把开源世界比作一条奔涌的大河&#xff0c;过去十年里&#xff0c;中国开发者已经从“岸边试水”变成了“中流击水”。在最近落下帷幕的 Community Over Code Asia 2025&#xff0c;华东师范大学教授王伟老师基于《中国开源年度报告》进行的一场分享&#xff0c;用一组数字…

JAVA 程序员cursor 和idea 结合编程

cursor 是基于vscode改良而来的&#xff0c;外加上Claude大语言模型而产生的AI编辑器&#xff0c;市面上也有阿里的灵码qianwen3-coder大语言模型。我个人电脑还是喜欢用idea集成灵码插件开发。但是也稍微介绍下习惯idea的人只是使用cursor代码生成的话&#xff0c;这有个小妙招…

查看部署在K8S服务的资源使用情况

要查看 Pod中 server 的资源使用情况&#xff08;CPU 和内存&#xff09;&#xff0c;你需要使用 Kubernetes 的监控工具。最常用的是 kubectl top 命令。✅ 方法一&#xff1a;使用 kubectl top&#xff08;推荐&#xff09; 1. 查看 Pod 的 CPU 和内存使用 kubectl top pod s…

uni-app vue3 小程序接入 aliyun-rtc-wx-sdk

安装依赖&#xff1a; npm install aliyun-rtc-wx-sdk crypto-jsuni-app&#xff0c;新建一个页面&#xff0c;粘贴以下代码 在阿里云实时音视频补充appId、appKey即可&#xff0c; <template><view class"container"><!-- 用户输入区域 --><vi…

Java技术栈/面试题合集(3)-Java并发篇

场景 Java入门、进阶、强化、扩展、知识体系完善等知识点学习、性能优化、源码分析专栏分享: Java入门、进阶、强化、扩展、知识体系完善等知识点学习、性能优化、源码分析专栏分享_java高级进阶-CSDN博客 通过对面试题进行系统的复习可以对Java体系的知识点进行查漏补缺。…

[AI 生成] Spark 面试题

spark 基础问题面试题以下是 Spark 基础面试题的全面梳理&#xff0c;涵盖核心概念、架构原理和编程模型&#xff0c;帮助快速掌握高频考点&#xff1a;一、核心概念1. Spark 核心组件组件作用Driver执行 main() 方法&#xff0c;调度任务&#xff0c;管理集群资源Executor在 W…

MySQL的DML增删改操作:

目录 添加数据&#xff1a; 方式1&#xff1a;一条一条添加数据&#xff1a; 方式2&#xff1a;将查询结果插入到表中&#xff1a; 更新数据&#xff1a; 删除数据&#xff1a; MySQL8的新特性&#xff1a;计算列&#xff1a; 本文介绍了MySQL数据库操作语言(DML)的基本使…

MySQL运维常用语法速查

&#x1f5c3;️ 一、数据库操作 CREATE DATABASE db_name; USE db_name; DROP DATABASE db_name; SHOW DATABASES;&#x1f517; 官方文档 &#x1f4ca; 二、表操作 表创建示例 CREATE TABLE users (id INT AUTO_INCREMENT PRIMARY KEY,name VARCHAR(50) NOT NULL,email V…

汽车以太网通信协议——SOME/IP

1. 背景 SOME/IP是一种汽车中间件解决方案&#xff0c;其全称是Scalable Service-Oriented Middleware over IP&#xff0c;即位于 IP 协议层以上的一种面向服务的可扩展的中间件。 中间件&#xff1a;该术语起源于复杂的软件系统开发&#xff0c;用以实现软件组件之间的数据交…

什么是负载均衡,有哪些常见算法?

文章目录1.什么是负载均衡2.负载均衡的分类2.1 二层负载均衡2.2 三层负载均衡2.3 四层负载均衡2.4 七层负载均衡3.负载均衡工具3.1 LVS3.2 Nginx3.3 HAProxy4.常见负载均衡算法5.面试回答模板1.什么是负载均衡 为了提升web应用的各方面能力&#xff0c;我们一般会把多台机器组…

PyTorch 核心三件套:Tensor、Module、Autograd

欢迎来到啾啾的博客&#x1f431;。 记录学习点滴。分享工作思考和实用技巧&#xff0c;偶尔也分享一些杂谈&#x1f4ac;。 有很多很多不足的地方&#xff0c;欢迎评论交流&#xff0c;感谢您的阅读和评论&#x1f604;。 目录引言1 Tensor1.1 &#x1f6e0;️Tensor 的核心用…