Commit d4fa5c6d authored by fisherdaddy's avatar fisherdaddy

feat: add new AI models o3 and o4-mini with updated pricing and release...

feat: add new AI models o3 and o4-mini with updated pricing and release details across multiple data files
parent 72f19282
...@@ -1048,5 +1048,12 @@ ...@@ -1048,5 +1048,12 @@
"category": "MODEL_RELEASE", "category": "MODEL_RELEASE",
"description": "OpenAI 推出了全新系列的 GPT-4.1 模型,包括 GPT‑4.1、GPT‑4.1 mini 和 GPT‑4.1 nano,这些模型在编码、指令遵循和长上下文处理方面实现了重大突破。与之前的 GPT‑4o 系列相比,GPT‑4.1 全面提升了性能,并降低了成本和延迟,特别适合开发者在实际应用中构建更强大的智能系统和代理型应用。新模型还首次支持高达 1 百万 tokens 的超长上下文窗口,并在多项行业标准基准测试中刷新记录。GPT‑4.1 系列仅通过 API 提供,GPT‑4.5 Preview 将于 2025 年 7 月 14 日下线。", "description": "OpenAI 推出了全新系列的 GPT-4.1 模型,包括 GPT‑4.1、GPT‑4.1 mini 和 GPT‑4.1 nano,这些模型在编码、指令遵循和长上下文处理方面实现了重大突破。与之前的 GPT‑4o 系列相比,GPT‑4.1 全面提升了性能,并降低了成本和延迟,特别适合开发者在实际应用中构建更强大的智能系统和代理型应用。新模型还首次支持高达 1 百万 tokens 的超长上下文窗口,并在多项行业标准基准测试中刷新记录。GPT‑4.1 系列仅通过 API 提供,GPT‑4.5 Preview 将于 2025 年 7 月 14 日下线。",
"link": "https://openai.com/index/gpt-4-1/" "link": "https://openai.com/index/gpt-4-1/"
},
{
"date": "2025-04-17",
"title": "o3 和 o4-mini",
"category": "MODEL_RELEASE",
"description": "OpenAI 推出了其 o 系列中迄今为止最智能、能力最强的模型——o3 和 o4-mini。这两款模型被训练用于更深度的推理(“思考更长时间”),显著提升了 ChatGPT 的能力。模型首次能够自主地(agentically)决定何时以及如何使用 ChatGPT 内的所有工具(网络搜索、代码执行、视觉分析、图像生成等)来解决复杂问题。",
"link": "https://openai.com/index/introducing-o3-and-o4-mini/"
} }
] ]
\ No newline at end of file
...@@ -98,6 +98,12 @@ ...@@ -98,6 +98,12 @@
"inputPrice": 4, "inputPrice": 4,
"outputPrice": 16 "outputPrice": 16
}, },
{
"name": "o4-mini",
"logo": "/assets/icon/openai_small.svg",
"inputPrice": 7.7,
"outputPrice": 30.8
},
{ {
"name": "o3-mini", "name": "o3-mini",
"logo": "/assets/icon/openai_small.svg", "logo": "/assets/icon/openai_small.svg",
...@@ -182,6 +188,12 @@ ...@@ -182,6 +188,12 @@
"inputPrice": 26.3, "inputPrice": 26.3,
"outputPrice": 105 "outputPrice": 105
}, },
{
"name": "o3",
"logo": "/assets/icon/openai_small.svg",
"inputPrice": 70,
"outputPrice": 280
},
{ {
"name": "o1", "name": "o1",
"logo": "/assets/icon/openai_small.svg", "logo": "/assets/icon/openai_small.svg",
...@@ -199,6 +211,12 @@ ...@@ -199,6 +211,12 @@
"logo": "/assets/icon/openai_small.svg", "logo": "/assets/icon/openai_small.svg",
"inputPrice": 525, "inputPrice": 525,
"outputPrice": 1050 "outputPrice": 1050
},
{
"name": "o1-pro",
"logo": "/assets/icon/openai_small.svg",
"inputPrice": 1050,
"outputPrice": 4200
} }
] ]
} }
\ No newline at end of file
...@@ -20,6 +20,12 @@ ...@@ -20,6 +20,12 @@
"inputPrice": 0.4, "inputPrice": 0.4,
"outputPrice": 1.6 "outputPrice": 1.6
}, },
{
"name": "o4-mini",
"logo": "/assets/icon/openai_small.svg",
"inputPrice": 1.1,
"outputPrice": 4.4
},
{ {
"name": "o3-mini", "name": "o3-mini",
"logo": "/assets/icon/openai_small.svg", "logo": "/assets/icon/openai_small.svg",
...@@ -56,6 +62,12 @@ ...@@ -56,6 +62,12 @@
"inputPrice": 0.6, "inputPrice": 0.6,
"outputPrice": 12 "outputPrice": 12
}, },
{
"name": "computer-use-preview",
"logo": "/assets/icon/openai_small.svg",
"inputPrice": 3,
"outputPrice": 12
},
{ {
"name": "gpt-4o-transcribe", "name": "gpt-4o-transcribe",
"logo": "/assets/icon/openai_small.svg", "logo": "/assets/icon/openai_small.svg",
...@@ -86,6 +98,12 @@ ...@@ -86,6 +98,12 @@
"inputPrice": 10, "inputPrice": 10,
"outputPrice": 30 "outputPrice": 30
}, },
{
"name": "o3",
"logo": "/assets/icon/openai_small.svg",
"inputPrice": 10,
"outputPrice": 40
},
{ {
"name": "o1", "name": "o1",
"logo": "/assets/icon/openai_small.svg", "logo": "/assets/icon/openai_small.svg",
...@@ -109,6 +127,12 @@ ...@@ -109,6 +127,12 @@
"logo": "/assets/icon/openai_small.svg", "logo": "/assets/icon/openai_small.svg",
"inputPrice": 100, "inputPrice": 100,
"outputPrice": 200 "outputPrice": 200
},
{
"name": "o1-pro",
"logo": "/assets/icon/openai_small.svg",
"inputPrice": 150,
"outputPrice": 600
} }
] ]
} }
\ No newline at end of file
...@@ -244,5 +244,11 @@ ...@@ -244,5 +244,11 @@
"title": "GPT-4.1 发布", "title": "GPT-4.1 发布",
"feature": "GPT-4.1 发布", "feature": "GPT-4.1 发布",
"description": "OpenAI 推出了全新系列的 GPT-4.1 模型,包括 GPT‑4.1、GPT‑4.1 mini 和 GPT‑4.1 nano,这些模型在编码、指令遵循和长上下文处理方面实现了重大突破。与之前的 GPT‑4o 系列相比,GPT‑4.1 全面提升了性能,并降低了成本和延迟,特别适合开发者在实际应用中构建更强大的智能系统和代理型应用。新模型还首次支持高达 1 百万 tokens 的超长上下文窗口,并在多项行业标准基准测试中刷新记录。GPT‑4.1 系列仅通过 API 提供,GPT‑4.5 Preview 将于 2025 年 7 月 14 日下线。" "description": "OpenAI 推出了全新系列的 GPT-4.1 模型,包括 GPT‑4.1、GPT‑4.1 mini 和 GPT‑4.1 nano,这些模型在编码、指令遵循和长上下文处理方面实现了重大突破。与之前的 GPT‑4o 系列相比,GPT‑4.1 全面提升了性能,并降低了成本和延迟,特别适合开发者在实际应用中构建更强大的智能系统和代理型应用。新模型还首次支持高达 1 百万 tokens 的超长上下文窗口,并在多项行业标准基准测试中刷新记录。GPT‑4.1 系列仅通过 API 提供,GPT‑4.5 Preview 将于 2025 年 7 月 14 日下线。"
},
{
"date": "2025年4月17日",
"title": "o3 和 o4-mini 发布",
"feature": "o3 和 o4-mini 发布",
"description": "OpenAI 推出了其 o 系列中迄今为止最智能、能力最强的模型——o3 和 o4-mini。这两款模型被训练用于更深度的推理(“思考更长时间”),显著提升了 ChatGPT 的能力。模型首次能够自主地(agentically)决定何时以及如何使用 ChatGPT 内的所有工具(网络搜索、代码执行、视觉分析、图像生成等)来解决复杂问题。"
} }
] ]
...@@ -74,6 +74,18 @@ ...@@ -74,6 +74,18 @@
"inputPrice": 10, "inputPrice": 10,
"outputPrice": 10 "outputPrice": 10
}, },
{
"name": "o4-mini",
"logo": "/assets/icon/openai_small.svg",
"inputPrice": 7.7,
"outputPrice": 30.8
},
{
"name": "o3-mini",
"logo": "/assets/icon/openai_small.svg",
"inputPrice": 7.7,
"outputPrice": 30.8
},
{ {
"name": "qwen-vl-max", "name": "qwen-vl-max",
"logo": "/assets/icon/ali_small.svg", "logo": "/assets/icon/ali_small.svg",
...@@ -128,11 +140,29 @@ ...@@ -128,11 +140,29 @@
"inputPrice": 26.3, "inputPrice": 26.3,
"outputPrice": 105 "outputPrice": 105
}, },
{
"name": "o3",
"logo": "/assets/icon/openai_small.svg",
"inputPrice": 70,
"outputPrice": 280
},
{ {
"name": "o1", "name": "o1",
"logo": "/assets/icon/openai_small.svg", "logo": "/assets/icon/openai_small.svg",
"inputPrice": 105, "inputPrice": 105,
"outputPrice": 420 "outputPrice": 420
},
{
"name": "gpt-4.5",
"logo": "/assets/icon/openai_small.svg",
"inputPrice": 525,
"outputPrice": 1050
},
{
"name": "o1-pro",
"logo": "/assets/icon/openai_small.svg",
"inputPrice": 1050,
"outputPrice": 4200
} }
] ]
} }
\ No newline at end of file
Markdown is supported
0% or
You are about to add 0 people to the discussion. Proceed with caution.
Finish editing this message first!
Please register or to comment