[ { "date": "2015年12月", "title": "OpenAI 成立", "feature": "创建人工智能,造福全人类", "description": "OpenAI的成立标志着人工智能研究的开端,致力于确保先进AI技术的安全和普及。" }, { "date": "2016年4月", "title": "OpenAI Gym 发布", "feature": "强化学习训练平台", "description": "提供了一套工具用于开发和比较强化学习算法,促进了AI社区的算法研究。" }, { "date": "2016年12月", "title": "Universe 发布", "feature": "通用AI开发与测试平台", "description": "支持AI在各种环境中进行训练和测试,拓展了强化学习的应用领域。" }, { "date": "2018年6月", "title": "GPT-1 发布", "feature": "自然语言生成模型", "description": "首个将Transformer与无监督预训练相结合的模型,开启了大规模语言模型的探索。" }, { "date": "2019年2月", "title": "GPT-2 发布", "feature": "文本生成", "description": "拥有15亿参数的语言模型,展示了在文本生成上的强大表现。" }, { "date": "2020年6月", "title": "GPT-3 发布", "feature": "自然语言处理", "description": "GPT-3参数量达1750亿,显著提升了自然语言理解和生成能力。" }, { "date": "2021年1月", "title": "DALL·E 发布", "feature": "图像生成", "description": "通过文本描述生成图像,拓展了生成模型的应用场景。" }, { "date": "2021年8月", "title": "Codex 发布", "feature": "自然语言转代码", "description": "支持代码自动生成,成为GitHub Copilot的核心技术。" }, { "date": "2022年4月", "title": "DALL·E 2 发布", "feature": "高分辨率图像生成", "description": "生成的图像更细致,支持更高的分辨率。" }, { "date": "2022年9月", "title": "Whisper 发布", "feature": "语音识别", "description": "多语言语音识别模型,接近人类的识别水平。" }, { "date": "2022年11月30日", "title": "ChatGPT", "feature": "基于 GPT-3.5 的 ChatGPT 网页版", "description": "能够进行自然语言交互,回答任意问题的 AI 助手。" }, { "date": "2023年1月27日", "title": "ChatGPT Plus订阅服务推出", "feature": "付费订阅版ChatGPT,收费为每月20美元", "description": "提供更快的响应速度、高峰时段优先访问、优先使用新功能和改进等额外功能。" }, { "date": "2023年3月14日", "title": "GPT-4 发布", "feature": "多模态大模型", "description": "支持图像输入,其理解力和生成能力大幅提升。" }, { "date": "2023年3月24日", "title": "ChatGPT Plugins 推出", "feature": "对第三方插件的支持", "description": "ChatGPT Plugins是进一步生态变革的开端,基于ChatGPT的改进包括:能够访问互联网实时数据、创建并编译代码、调用和创建第三方程序等等。" }, { "date": "2023年5月18日", "title": "ChatGPT iOS 版发布", "feature": "", "description": "" }, { "date": "2024年7月25日", "title": "ChatGPT Android 版发布", "feature": "", "description": "" }, { "date": "2023年8月29日", "title": "ChatGPT Enterprise 版发布", "feature": "面向企业的ChatGPT版本", "description": "提供企业级安全和数据隐私保护,提供无限速的GPT-4访问权限,支持32K上下文输入,高级数据分析功能,自定义选项等所有高级功能。" }, { "date": "2023年9月26日", "title": "GPT-4V (Vision) 发布", "feature": "GPT-4 的视觉增强版本", "description": "它具有更强大的图像处理能力,可以执行更复杂的视觉分析任务,如详细的场景描述、物体识别、视觉推理等。" }, { "date": "2023年11月6日", "title": "GPT-4 Turbo、DALL-E 3、GPTs 发布", "feature": "增强版GPT-4", "description": "融合了文本和视觉能力的大模型。" }, { "date": "2024年2月15日", "title": "Sora 发布", "feature": "文本到视频生成AI", "description": "首个视频生成模型,能够生成长达一分钟的高清视频,同时保持视觉品质并遵循用户提示。" }, { "date": "2024年5月14日", "title": "GPT-4o 发布", "feature": "GPT-4o的“o”代表“omni”,意为“全能”", "description": "GPT-4o 是迈向更自然人机交互的一步,支持文本、音频和图像的多模态输入,提升了人机交互的自然性。" }, { "date": "2024年6月26日", "title": "Mac 版ChatGPT 发布", "feature": "", "description": "" }, { "date": "2024年7月18日", "title": "GPT-4o-mini 发布", "feature": "相当于是能力更强的“GPT-3.5”,同时支持文本和图像", "description": "GPT-4o mini 成本比 GPT-3.5 Turbo便宜超过60%。" }, { "date": "2024年9月12日", "title": "o1-mini、o1-preview 发布", "feature": "通过强化学习训练的大语言模型,能执行复杂推理任务", "description": "o1 会在回答前生成较长的内部思维链,水平接近博士生,擅长物理、化学、生物等领域的复杂任务。" }, { "date": "2024年10月4日", "title": "Canvas 发布", "feature": "在写作和代码方面展开协作", "description": "为ChatGPT引入新的写作和编程界面,提升用户与AI协作的体验。" }, { "date": "2024年10月18日", "title": "Windows 版ChatGPT 发布", "feature": "", "description": "" }, { "date": "2024年10月31日", "title": "ChatGPT搜索功能发布", "feature": "实时网络搜索", "description": "ChatGPT整合了实时互联网信息,提升了回答的准确性和时效性。" }, { "date": "2024年12月6日", "title": "o1 & ChatGPT Pro 发布", "feature": "o1 支持图像输入,比 o1-preview 思考时间更短,但响应更快", "description": "ChatGPT Pro。200 美元/月的会员订阅费。不限制使用次数(包括o1、o1-mini、语音模式等等),另外也会有更智能的 o1 使用模式。" }, { "date": "2024年12月7日", "title": "强化微调技术(Reinforcement Fine-Tuning, RFT)发布", "feature": "", "description": "与监督微调不同,监督微调的目标是让模型复制在输入文本或图像中提取出的特征。强化微调 RFT 不只是让模型学会模仿输入,而是学会以全新的方式进行推理,仅需要几十个例子即可做到" }, { "date": "2024年12月10日", "title": "Sora 开放使用", "feature": "支持文本转视频、图像转视频、视频转视频", "description": "" }, { "date": "2024年12月13日", "title": "高级视频模式开放使用", "feature": "", "description": "" }, { "date": "2024年12月14日", "title": "Projects 发布", "feature": "", "description": "通过项目可以你可以上传文件、设置自定义指令" }, { "date": "2024年12月18日", "title": "o1 api & Preference Fine-Tuning 发布", "feature": "", "description": "" }, { "date": "2024年12月21日", "title": "o3 和 o3-mini 预告", "feature": "", "description": "" }, { "date": "2025年1月23日", "title": "Operator 发布", "feature": "Operator 由名为 Computer-Using Agent (CUA) 的新模型驱动。CUA 结合了 GPT-4o 的视觉能力和通过强化学习获得的先进推理能力,使其能够与图形用户界面 (GUI) 进行交互。", "description": "这是 OpenAI 发布的第一个 Agent, 旨在通过模拟人类在浏览器上的操作(如打字、点击和滚动)来完成各种重复性任务,从而扩展 AI 的实用性,帮助用户节省时间和为企业创造新的互动机会。" }, { "date": "2025年1月31日", "title": "o3-mini 发布", "feature": "与 OpenAI o1 类似,OpenAI o3-mini 针对 STEM 推理进行了优化。", "description": "在中等推理强度下,o3-mini 在数学、编程和科学方面的表现与 o1 持平,同时响应速度更快。" }, { "date": "2025年2月2日", "title": "Deep Research 发布", "feature": "OpenAI 发布的第二个 Agent", "description": "Deep Research基于 o3的微调版本,它能够在数十分钟内完成人类研究人员需要花费数小时才能完成的工作,极大地提高了研究效率。" }, { "date": "2025年2月27日", "title": "GPT-4.5 发布", "feature": "GPT-4.5 代表了无监督学习扩展方面的一个进步,通过扩大无监督学习的规模,GPT-4.5 提升了其识别模式、建立联系以及在没有推理的情况下生成创造性见解的能力。", "description": "GPT-4.5 拥有更广泛的知识库,能更好地理解用户意图,并展现出更高的“情商”(EQ),从而在写作、编程和问题解决等方面表现更佳,并且有望减少幻觉。" }, { "date": "2025年3月20日", "title": "新一代语音转文本模型和文本转语音模型 发布", "feature": "新一代语音转文本模型( gpt-4o-transcribe、gpt-4o-mini-transcribe)和文本转语音模型(gpt-4o-mini-tts)", "description": "新一代语音转文本模型: 推出了 gpt-4o-transcribe 和 gpt-4o-mini-transcribe 模型,相较于原有的 Whisper 模型,在词错误率 (Word Error Rate, WER) 上有显著改进,语言识别和准确性更高。新一代文本转语音模型: 推出了 gpt-4o-mini-tts 模型,该模型最大的亮点是其可指导性 (steerability),开发者可以指示模型不仅说什么,还可以指定 如何 说,例如模仿 “富有同情心的客服人员” 的语气。" }, { "date": "2025年3月25日", "title": "GPT-4o 原生生图能力发布", "feature": "GPT-4o 原生生图能力发布", "description": "OpenAI 在 GPT-4o 中引入了其最先进的图像生成器,旨在实现实用且有价值的图像生成。与以往的模型不同,GPT-4o 的图像生成能力专注于精确、准确和照片写实的效果,使其成为一个实用的沟通和信息创建工具,而不仅仅是装饰品。该模型通过原生多模态能力,能够更好地理解和执行用户指令,从而生成更符合用户意图的图像。" } ]