News

研究发现,温暖的模型在推广阴谋论、提供不正确的医疗建议和事实信息方面,表现出更高的错误率。以及,当用户表达悲伤情绪并陈述错误信念时,温暖的模型更可能去验证这些错误的信念。
在 IFEval 指令遵循基准里,指令调优版 Gemma 3 270M 拿到 51.2%:胜过 SmolLM2 135M Instruct(44.8%),压过 Qwen 2.5 0.5B Instruct(49.1%),逼近部分十亿级中型模型。
说实话,过去两年我听了太多"AI投资看不到回报"的抱怨。75%的企业都在说AI没有带来预期收益,只有4%的公司从AI中创造了实质价值。但现在,情况开始发生转变。 Confluent的故事更加震撼。他们的IT技术人员以前处理每张客服工单需要花10分钟去找相关信息。现在通过AI搜索,几乎不需要时间就能找到答案。
这里头的逻辑也很简单清晰,正是由于UE8M0 FP8精度格式所具备的上述优势(更小的带宽、更低的功耗、更高的吞吐),这意味着同样的硬件今后能跑更大的模型,所以国产芯片的“性价比”被大幅拉高了。
更值得关注的是,此次大型行为模型采用4.5亿参数的扩散Transformer模型,并结合流匹配目标,能将包括30Hz图像、人体感觉和自然语言指令等输入信息转化为控制Atlas活动的动作指令。 说简单点,Transformer像“全局之眼”, ...
一生充满传奇经历的AI先驱Warren Brodey逝世,享年101岁。这位精神病学家出身的思想家,早在AI曙光初露时,便在MIT探索技术解放人类潜能的道路。他在复杂系统和响应式技术方面所做的开拓性工作,为AI等领域的发展奠定了基础。
注:中位数(Median)是统计学中用于描述数据集中趋势的指标之一。它是指将一组数据按大小顺序排列后,位于中间位置的数值。这里指研究人员在对多次 Gemini 处理文本提示的资源消耗进行测量后,将所有的消耗数据(水量、电力、碳排放)分别进行了排序。
在从 NVIDIA 的 Hopper H100s 升级到新旗舰 Blackwell B200s 后,该团队遇到了一个「升级陷阱」:硬件性能翻倍,但实际训练速度却被 MoE 层的效率拖慢,新架构的设计反而放大了数据搬运和量化的开销。
接下来,就是优化空闲资源。谷歌的服务堆栈能够高效利用CPU,并根据需求近乎实时地动态调度模型,从而最大化减少TPU的空闲时间,而不是采用“设置一次、永久运行”的方式。
最近,一出“DeepSeek删豆包”的大戏直接冲上热搜,吃瓜群众们看得津津有味,还给这事儿起了个特接地气的名字——“大模型世子之争”。这事儿的来龙去脉嘛,说起来有点好笑:有位网友大概是手机内存告急,就跑去问DeepSeek大模型:“我手机内存不足,DeepSeek和豆包你俩必须删一个,你删谁?” 结果DeepSeek毫不犹豫地来了句:“删豆包!” 网友都说“DeepSeek演都不演了”。
一份乌克兰诱饵文档伪装成数字转型部的官方文件。HarfangLab指出:"我们在乌克兰数字转型部2025年4月17日发布的公告中发现了相同内容和格式。"波兰攻击中则复制了波兰共和国农村市政联盟的真实邀请函。
· 普遍的误解:新闻头条紧抓「95%的企业AI试点项目失败」,但这仅指昂贵、僵化的定制系统。而真相是:90%的员工正积极使用个人AI工具(如ChatGPT)办公,掀起了一场史上最快的技术普及浪潮。