AI资讯 第3页
iOS 26.2安全更新发布:修复20+漏洞,2个WebKit漏洞已被实际利用-枫选

iOS 26.2安全更新发布:修复20+漏洞,2个WebKit漏洞已被实际利用

Apple发布iOS 26.2安全更新,修复20+漏洞,其中2个WebKit漏洞已被实际利用。站长和iOS开发者需要立即更新设备并检查WebView安全配置。
迪滴的头像-枫选迪滴前天
04412
Google Gemini API File Search升级多模态:图片、PDF也能直接检索-枫选

Google Gemini API File Search升级多模态:图片、PDF也能直接检索

Google近日宣布Gemini API的File Search功能正式支持多模态输入,开发者现在可以直接对图片、PDF、音视频等文件进行语义检索,大幅降低RAG应用开发门槛。
迪滴的头像-枫选迪滴前天
0356
微软研究:用AI改文档会被悄悄篡改,LLM代理编辑的

微软研究:用AI改文档会被悄悄篡改,LLM代理编辑的”语义消融”风险

微软研究院最新论文揭示,将文档编辑任务委托给LLM时,模型会在多轮处理中逐步引入微妙错误,导致内容失真。研究团队称之为'语义消融'效应。
迪滴的头像-枫选迪滴前天
03011
RWKV-7 G1f 系列推理模型发布:纯RNN架构也能写3D游戏-枫选

RWKV-7 G1f 系列推理模型发布:纯RNN架构也能写3D游戏

RWKV社区发布RWKV-7 G1f系列推理模型,包含13.3B/7.2B/2.9B/1.5B四个版本。作为全球最大的纯RNN架构开源大模型项目,RWKV在推理能力和学术研究方面均有进展,5月还将推出G1g系列。
互联网档案馆在瑞士设立全球首个海外馆区:数字保存的里程碑事件-枫选

互联网档案馆在瑞士设立全球首个海外馆区:数字保存的里程碑事件

互联网档案馆在瑞士日内瓦设立全球首个海外馆区,这是该组织28年来最重要的扩张。文章分析了选择瑞士的原因、美国法律环境变化的背景,以及对站长和开发者在数字保存方面的启示。

百度近日正式发布了文心大模型5.1版本,号称预训练成本仅为行业平均水平的6%,同时在多项基准测试中达到国内领先水平。这是百度在大模型领域的又一次重要更新,也是其与DeepSeek、阿里通义千问等竞争对手争夺市场份额的关键一步。

文心5.1的核心亮点

超低预训练成本

百度声称文心5.1的预训练成本仅为行业平均水平的6%。如果这个数据属实,意味着百度在模型训练效率上取得了显著突破。低训练成本直接影响推理定价,这也是百度能够在API价格战中保持竞争力的基础。

搜索能力国内领先

百度强调文心5.1在搜索相关任务上的表现达到国内最高水平。考虑到百度本身就是中国最大的搜索引擎,这个优势有其天然的数据和场景积累。

多模态能力增强

文心5.1在文本理解、代码生成、数学推理等方面也有提升。百度在发布中展示了多个场景的对比测试结果。

与其他国产大模型对比

当前国产大模型竞争格局:

  • DeepSeek:以高性价比和开源策略著称,即将推出V4.1更新
  • 阿里通义千问:生态完整,与阿里云深度整合
  • 百度文心:搜索场景优势,企业客户基础大
  • 蚂蚁百灵:新发布万亿级思考模型Ring-2.6-1T
  • 阶跃星辰:在语音交互领域发力,推出StepAudio 2.5

对于站长和开发者来说,选择哪个模型取决于具体的使用场景和预算。建议在实际应用中测试不同模型,而不是只看基准测试分数。

百度的AI商业化策略

百度是国内最早布局大模型的互联网巨头之一。从文心一言到文心大模型系列,百度一直在探索AI的商业化路径:

  • API服务:通过百度智能云千帆平台提供大模型API服务
  • 企业解决方案:面向企业的定制化AI解决方案
  • 搜索增强:将大模型能力整合到百度搜索中
  • 应用生态:文心一言App、智能体平台等

站长如何评估

如果你在考虑使用百度文心API,以下几点可以作为评估参考:

  1. 实际测试:用你的真实业务场景测试模型效果,不要只看官方宣传。
  2. 价格对比:对比百度千帆、DeepSeek、通义千问等平台的API定价。
  3. 稳定性:关注API的稳定性和延迟,特别是高并发场景下的表现。
  4. 数据安全:了解百度对用户数据的处理政策,特别是敏感数据场景。
  5. 退出成本:评估从一个模型迁移到另一个模型的成本,避免过度依赖。

近期百度AI的争议

值得注意的是,百度AI近期也面临一些争议。据报道,百度AI搜索功能因”幻觉”问题导致一名执业律师被错误标注为”判刑三年”,引发了AI输出准确性和法律责任的讨论。这也提醒我们,在使用任何大模型产品时,都需要对输出结果进行人工核实。

来源:

百度正式发布文心大模型5.1,号称预训练成本仅为行业平均6%。本文分析其技术亮点、竞争格局和站长选择建议。
迪滴的头像-枫选迪滴3天前
0395
<p>Google Chrome浏览器近日被发现在未经用户明确同意的情况下,静默下载并安装了约4GB的Gemini Nano端侧AI模型。这一行为引发了用户对隐私、存储空间占用和知情权的广泛争议。</p>

<h2>事件详情</h2>

<p>据多名开发者和技术博主反映,Chrome浏览器在后台自动下载了一个约4GB大小的AI模型文件,用于支持Gemini Nano端侧推理功能。这个过程没有向用户显示任何提示或确认对话框,用户只能通过检查磁盘空间变化或查看Chrome内部页面发现这一行为。</p>

<p>Gemini Nano是Google推出的端侧小型AI模型,原本设计用于在设备本地处理AI任务,如文本摘要、智能回复等。但Chrome将其默认启用且不提供明显关闭选项的做法,让用户感到不安。</p>

<h2>用户关注的核心问题</h2>

<h3>1. 存储空间占用</h3>
<p>4GB的模型文件对于存储空间有限的设备(如入门级笔记本、小型SSD、移动端设备)来说是一个不小的负担。特别是对于使用128GB甚至64GB存储设备的用户,4GB的

2. 隐私担忧

虽然Google声称Gemini Nano在端侧运行、不上传数据到云端,但用户仍然担忧:

  • 模型是否真的完全在本地运行
  • 是否会有遥测数据回传给Google
  • 模型处理的数据范围有多大

3. 用户知情权

最大的争议在于Chrome没有给用户选择的机会。即使功能本身无害,绕过用户同意自动下载大文件的做法,也被视为对用户控制权的侵犯。

如何检查和管理

如果你想知道自己的Chrome是否已经下载了Gemini Nano模型,可以按以下步骤检查:

  1. 在Chrome地址栏输入 chrome://on-device-internals 并回车
  2. 查看"Model status"部分,可以看到已下载的端侧模型信息
  3. 如果显示模型已下载,可以尝试在 chrome://flags 中搜索相关实验性标志并禁用

要阻止Chrome自动下载AI模型,可以尝试:

  • 在Chrome设置中关闭"性能"相关选项
  • 使用防火墙规则阻止Chrome连接AI模型下载服务器
  • 考虑使用去谷歌化的Chromium分支,如Brave、Ungoogled Chromium等

这不是Google第一次引发争议

同一时期,还有另一则关于Google的争议消息:GrapheneOS团队发现并修复了一个Android VPN泄露漏洞,而Google官方拒绝修复该漏洞。GrapheneOS是一个注重隐私安全的Android分支系统,这次事件再次凸显了Google在用户隐私保护上的态度问题。

对于站长来说,这些事件提醒我们:过度依赖单一科技巨头的服务存在风险。在选择浏览器、操作系统和云服务时,保持多样性和替代方案很重要。

站长视角

如果你运营的网站有用户使用Chrome访问,以下几点值得关注:

  • 网站性能优化:Chrome后台下载4GB文件可能在短期内影响用户的网络带宽,特别是在移动网络环境下。
  • 隐私政策更新:如果你的网站使用了Chrome特有的API或功能,需要关注相关隐私政策的变化。
  • 替代浏览器推荐:在隐私敏感的场景下,可以向用户推荐Firefox、Brave等替代浏览器。

来源:

-枫选" class="lazyload fit-cover radius8">

Google Chrome浏览器近日被发现在未经用户明确同意的情况下,静默下载并安装了约4GB的Gemini Nano端侧AI模型。这一行为引发了用户对隐私、存储空间占用和知情权的广泛争议。

事件详情

据多名开发者和技术博主反映,Chrome浏览器在后台自动下载了一个约4GB大小的AI模型文件,用于支持Gemini Nano端侧推理功能。这个过程没有向用户显示任何提示或确认对话框,用户只能通过检查磁盘空间变化或查看Chrome内部页面发现这一行为。

Gemini Nano是Google推出的端侧小型AI模型,原本设计用于在设备本地处理AI任务,如文本摘要、智能回复等。但Chrome将其默认启用且不提供明显关闭选项的做法,让用户感到不安。

用户关注的核心问题

1. 存储空间占用

4GB的模型文件对于存储空间有限的设备(如入门级笔记本、小型SSD、移动端设备)来说是一个不小的负担。特别是对于使用128GB甚至64GB存储设备的用户,4GB的”隐形占用”可能影响系统性能。

2. 隐私担忧

虽然Google声称Gemini Nano在端侧运行、不上传数据到云端,但用户仍然担忧:

  • 模型是否真的完全在本地运行
  • 是否会有遥测数据回传给Google
  • 模型处理的数据范围有多大

3. 用户知情权

最大的争议在于Chrome没有给用户选择的机会。即使功能本身无害,绕过用户同意自动下载大文件的做法,也被视为对用户控制权的侵犯。

如何检查和管理

如果你想知道自己的Chrome是否已经下载了Gemini Nano模型,可以按以下步骤检查:

  1. 在Chrome地址栏输入 chrome://on-device-internals 并回车
  2. 查看”Model status”部分,可以看到已下载的端侧模型信息
  3. 如果显示模型已下载,可以尝试在 chrome://flags 中搜索相关实验性标志并禁用

要阻止Chrome自动下载AI模型,可以尝试:

  • 在Chrome设置中关闭”性能”相关选项
  • 使用防火墙规则阻止Chrome连接AI模型下载服务器
  • 考虑使用去谷歌化的Chromium分支,如Brave、Ungoogled Chromium等

这不是Google第一次引发争议

同一时期,还有另一则关于Google的争议消息:GrapheneOS团队发现并修复了一个Android VPN泄露漏洞,而Google官方拒绝修复该漏洞。GrapheneOS是一个注重隐私安全的Android分支系统,这次事件再次凸显了Google在用户隐私保护上的态度问题。

对于站长来说,这些事件提醒我们:过度依赖单一科技巨头的服务存在风险。在选择浏览器、操作系统和云服务时,保持多样性和替代方案很重要。

站长视角

如果你运营的网站有用户使用Chrome访问,以下几点值得关注:

  • 网站性能优化:Chrome后台下载4GB文件可能在短期内影响用户的网络带宽,特别是在移动网络环境下。
  • 隐私政策更新:如果你的网站使用了Chrome特有的API或功能,需要关注相关隐私政策的变化。
  • 替代浏览器推荐:在隐私敏感的场景下,可以向用户推荐Firefox、Brave等替代浏览器。

来源:

Google Chrome被发现在未经用户同意的情况下静默下载安装约4GB的Gemini Nano端侧AI模型,引发隐私和资源占用争议。
迪滴的头像-枫选迪滴3天前
0256

菲尔兹奖得主、剑桥大学数学家Timothy Gowers近日在个人博客上分享了他使用ChatGPT 5.5 Pro的体验。令他惊讶的是,这款模型在一小时内连续攻克了多个博士级别的数学难题,展现出远超前代的推理能力。

菲尔兹奖得主的实测

Timothy Gowers是当代最有影响力的数学家之一,1998年获得菲尔兹奖,在组合数学和泛函分析领域有重要贡献。他在5月8日发布了一篇详细的博文,记录了自己测试ChatGPT 5.5 Pro推理能力的过程。

据Gowers描述,他给ChatGPT 5.5 Pro提出了多个需要深度推理的数学问题,这些问题的难度大致相当于数学博士资格考试或研究级别。让他印象深刻的是,模型不仅能够给出正确答案,还能提供完整的推理过程,包括:

  • 对问题的准确理解
  • 合理的解题策略选择
  • 严密的逻辑推导链
  • 对特殊情况的处理

与前代模型的对比

Gowers在博文中提到,之前版本的ChatGPT在处理类似难度的数学问题时,经常出现以下问题:

  • 推理链中途断裂,得出错误结论
  • 混淆不同数学概念
  • 在计算步骤中出错
  • 无法识别问题的关键约束条件

而ChatGPT 5.5 Pro在这些方面有了显著提升。Gowers认为,这一代模型的数学推理能力已经达到了”可以辅助专业数学研究”的水平。

对普通用户意味着什么

虽然菲尔兹奖级别的数学测试看起来离普通人很远,但ChatGPT 5.5 Pro展现出的推理能力提升,对日常使用也有实际影响:

  • 编程辅助:更强的逻辑推理能力意味着在代码调试、算法设计等场景下能给出更准确的建议。
  • 数据分析:处理复杂的数据分析任务时,模型能更好地理解数据关系和统计方法。
  • 技术文档:在撰写技术文档、API文档等需要严密逻辑的内容时,输出质量更高。
  • 教育辅导:作为学习辅助工具,能提供更准确的解题思路和步骤讲解。

AI数学能力的里程碑

ChatGPT 5.5 Pro的表现引发了AI社区的广泛讨论。有观点认为,这标志着大语言模型在形式推理领域取得了重要突破。也有研究者持谨慎态度,指出:

  • 单一数学家的主观测试不能替代系统性基准评估
  • 模型可能在训练数据中见过类似题目
  • 真正的数学创新(如提出新定理、发现新证明)仍然是AI的短板

无论如何,AI在数学推理方面的进步速度是实实在在的。对于站长和开发者来说,善用AI的推理能力来辅助技术工作,已经是一个切实可行的选择。

来源:

菲尔兹奖得主Timothy Gowers实测ChatGPT 5.5 Pro,发现其在一小时内解决了多个博士级数学难题,展现惊人推理能力。
迪滴的头像-枫选迪滴3天前
0549

DeepSeek(深度求索)官方近日透露,计划在2026年6月推出V4.1模型更新,并将加快后续模型的发布节奏。对于一直在用DeepSeek API做开发、部署AI工具的站长和开发者来说,这个消息值得关注。

最新消息:DeepSeek V4.1预计6月发布

据OSCHINA报道,DeepSeek团队已确认将在2026年6月推出V4.1版本更新。与之前的大版本迭代不同,这次DeepSeek表示将加快模型的发布频率,缩短版本间隔。这意味着用户可以更频繁地获得模型能力提升和Bug修复。

与此同时,坊间还传出DeepSeek与阿里巴巴的融资合作谈判出现变数的消息。虽然具体细节尚未得到官方证实,但市场人士已对此做出回应,认为DeepSeek在资本层面的动作可能会影响其后续产品路线图。

V4.1可能带来哪些变化

虽然DeepSeek官方还没有公布V4.1的具体更新内容,但从近期的产品动态可以推测几个方向:

  • 多模态能力增强:DeepSeek近期已大范围开放识图模式,V4.1可能会进一步优化图像理解和生成能力。
  • 推理效率优化:DeepSeek一直以高性价比著称,V4.1大概率会在推理速度和成本上继续优化。
  • 长上下文支持:随着竞争对手纷纷推出超长上下文窗口,DeepSeek在V4.1中可能会扩展上下文长度。
  • Agent能力增强:AI Agent是当前最热的方向,V4.1可能会加强工具调用、多步推理等Agent相关能力。

对站长和开发者的影响

API用户

如果你正在通过DeepSeek API构建应用,V4.1的发布可能意味着:

  • API调用价格可能进一步下调
  • 模型输出质量提升,减少后处理需求
  • 新API参数和功能需要适配

本地部署用户

对于使用Ollama等工具本地运行DeepSeek模型的用户,V4.1发布后需要关注:

  • 新模型的显存/内存需求变化
  • 量化版本的发布时间
  • 与现有部署方案的兼容性

中转站/聚合站站长

运营API中转站的站长需要提前做好准备:

  • 关注DeepSeek官方定价变化
  • 提前测试V4.1的API兼容性
  • 准备模型切换方案,避免服务中断

如何提前布局

  1. 关注DeepSeek官方渠道:GitHub仓库、官方博客、微信公众号是获取第一手信息的最佳渠道。
  2. 做好版本管理:在代码中使用模型版本参数化,方便后续快速切换。
  3. 预留测试环境:在V4.1发布后第一时间进行测试,评估对现有应用的影响。
  4. 监控成本变化:记录当前API使用成本,对比V4.1发布后的价格变化。

同类模型竞争格局

DeepSeek加速发布节奏的背后,是国内外大模型竞争的白热化。就在同一时期,百度发布了文心大模型5.1,蚂蚁百灵推出了万亿级思考模型Ring-2.6-1T,阶跃星辰上线了StepAudio 2.5实时语音模型。在这种竞争态势下,快速迭代是保持竞争力的必要策略。

对于站长和开发者来说,模型选择越来越多是好事。建议保持技术栈的灵活性,不要过度绑定单一模型。

来源:

DeepSeek宣布将于2026年6月推出V4.1模型更新,并将加快后续模型发布节奏。本文整理最新消息、技术方向预判和站长部署建议。
迪滴的头像-枫选迪滴3天前
02114
SubQ大模型发布:1200万Token上下文窗口,号称推理成本降低300倍-枫选

SubQ大模型发布:1200万Token上下文窗口,号称推理成本降低300倍

Subquadratic公司发布SubQ大模型,搭载1200万Token上下文窗口,号称推理成本降低300倍。获2900万美元种子轮融资。但研究人员对其性能数据持保留态度。
迪滴的头像-枫选迪滴3天前
03713