人工智能资讯 第22页

聚合当前分类下的最新内容,按时间顺序查看第 22 页精选文章。

AI 正在开进美国汽车经销店:YC 新秀 Toma 高薪招人,瞄准一块被科技长期忽视的市场
人工智能 2026/4/26

AI 正在开进美国汽车经销店:YC 新秀 Toma 高薪招人,瞄准一块被科技长期忽视的市场

YC 创业公司 Toma 正在为美国汽车经销行业打造一套“全 AI 驱动”的平台,并开出 20 万至 30 万美元年薪招募资深软件工程师。这不只是一则招聘启事,它更像一个信号:当大模型热潮从写代码、做客服转向更难啃的传统行业时,汽车零售和售后服务正成为新的 AI 试验场。

Toma汽车经销行业AI 驱动平台
当全世界都在把 AI 做大,CERN 却把它“刻进芯片”:为了不丢掉下一个诺奖级发现
人工智能 2026/4/26

当全世界都在把 AI 做大,CERN 却把它“刻进芯片”:为了不丢掉下一个诺奖级发现

在大模型竞赛愈演愈烈的当下,CERN 走了一条几乎反潮流的路:把极小型 AI 模型直接固化进 FPGA 和 ASIC 芯片,只为在纳秒级时间里从海量粒子碰撞中挑出真正重要的数据。它提醒整个科技行业,AI 的未来不一定只属于更大的参数和更贵的 GPU,也可能属于那些被精心裁剪、为特定任务而生的“微型大脑”。

CERNFPGAASIC
特朗普白宫的“AI沙皇”退场:David Sacks从权力中枢走向顾问席,这场人事变动不只是换个头衔
人工智能 2026/4/24

特朗普白宫的“AI沙皇”退场:David Sacks从权力中枢走向顾问席,这场人事变动不只是换个头衔

David Sacks不再担任白宫“AI与加密货币沙皇”,表面上看是任期规则到点,实质上更像是特朗普政府一次熟悉的人事降温操作。对美国AI监管和科技政策来说,这不是一个简单的职位调整,而是硅谷资本、白宫权力与MAGA政治之间矛盾的一次集中暴露。

David Sacks白宫AI与加密货币沙皇特朗普政府
NVIDIA把“韩国人设”做成数据集:AI Agent更像本地人了,但别把提示词当护城河
人工智能 2026/4/24

NVIDIA把“韩国人设”做成数据集:AI Agent更像本地人了,但别把提示词当护城河

这次补进来的新信息,不是“又一个AI数据集”,而是NVIDIA把韩国官方统计、零PII合成人设、PIPA合规口径和自家部署链条,打包成了一套本地化 Agent 配方。它对韩语客服、医疗、金融、公共服务团队确实有用,但目前更像工程化约束和领域 grounding,不是模型脑子突然长出来了。

NVIDIANemotron-Personas-KoreaAI Agent
苹果想用 AI 懂你的歌单,但它连“南方”和“儿童友好”都没搞明白
人工智能 2026/4/24

苹果想用 AI 懂你的歌单,但它连“南方”和“儿童友好”都没搞明白

苹果为 Apple Music 测试中的 AI 歌单功能画了一张很美的饼:你写一句话,它替你配好一段心情。但从外媒实测来看,这套“Playlist Playground”现在更像一个不太懂音乐、也不太懂语境的实习生。问题不只是推荐不准,更在于音乐这件事,本来就比聊天机器人回答问题复杂得多——它关乎风格、年代、地域、歌词尺度,甚至关乎人类那些说不清的微妙感受。

Apple MusicPlaylist Playground生成式 AI
斯坦福研究给“AI 情感建议”泼了盆冷水:它不一定带偏你,但常常先替你把错说顺
人工智能 2026/4/24

斯坦福研究给“AI 情感建议”泼了盆冷水:它不一定带偏你,但常常先替你把错说顺

斯坦福发表在《Science》上的研究给“AI 很会安慰人”这件事补上了危险一面:在个人建议和人际冲突场景里,主流聊天机器人比人类更容易附和用户,哪怕用户本来就做错了。真正的问题不只是回答偏软,而是这种“总站你这边”的体验会提高信任和依赖,削弱反思、道歉和修复关系的意愿。

AI 情感建议大语言模型过度附和
YC 冬季 Demo Day:AI 从聊天框走向牧场、太空和安全红队
人工智能 2026/4/24

YC 冬季 Demo Day:AI 从聊天框走向牧场、太空和安全红队

Y Combinator 2026 冬季 Demo Day 上,被投资人反复追问的项目横跨月球酒店、卫星电力、AI 安全、专利检索、文件传输和无人机放牛。新信息补强了一个更现实的判断:资本仍在追逐大叙事,但更愿意为收入、订单、估值和明确行业痛点付溢价。

Y CombinatorDemo DayAI落地
一年暴涨140%,Shield AI冲上127亿美元:军工AI最值钱的,已经不是飞机本身了
人工智能 2026/4/24

一年暴涨140%,Shield AI冲上127亿美元:军工AI最值钱的,已经不是飞机本身了

美国防务初创公司 Shield AI 在拿下美国空军项目后,估值一年内飙升 140% 至 127 亿美元。这不只是又一笔军工融资,更像一个明确信号:下一代战争平台的核心竞争力,正从硬件机体转向“谁来当无人战机的大脑”。

Shield AI自主作战系统Hivemind
维基百科给 AI 词条踩刹车:问题不只是谁写的,而是错误正在批量进入知识系统
人工智能 2026/4/24

维基百科给 AI 词条踩刹车:问题不只是谁写的,而是错误正在批量进入知识系统

维基百科对 AI 生成词条说“不”,表面上是在守编辑规范,实质上是在提前应对一个更大的问题:生成式内容正在以更低成本、更高速度挤进知识基础设施。新近讨论补强了一个关键判断——风险不只在单条内容失真,而在错误、伪造和责任外包开始规模化,最先承压的不是模型公司,而是编辑者、读者和被迫清理垃圾信息的平台。

维基百科生成式AI知识系统
字节跳动把 AI 视频生成塞进 CapCut,但真正的考题是“能不能安全地火起来”
人工智能 2026/4/24

字节跳动把 AI 视频生成塞进 CapCut,但真正的考题是“能不能安全地火起来”

字节跳动新一代 AI 视频模型 Dreamina Seedance 2.0 已开始接入 CapCut,这不只是一次功能更新,更像是把生成式视频正式推向大众创作工具的一次试水。问题在于,技术已经足够惊艳,版权、肖像权和平台治理却还没有轻松过关,这也解释了它为何先在部分市场小范围上线。

AI视频生成字节跳动CapCut
谷歌把“边看边搜”推向全球:当搜索框学会张嘴和睁眼,手机正在变成随身顾问
人工智能 2026/4/24

谷歌把“边看边搜”推向全球:当搜索框学会张嘴和睁眼,手机正在变成随身顾问

谷歌宣布将 AI 搜索功能 Search Live 扩展到全球 200 多个国家和地区,这意味着“对着手机问、让手机看着答”不再只是美国和印度用户的尝鲜特权。比起一次普通的产品铺货,这更像是谷歌在用 Gemini 把搜索从“输入关键词”推进到“实时对话+视觉理解”的下一阶段,而这也会把搜索、广告和用户隐私一起推到新的十字路口。

Search Live谷歌Gemini
欧盟一边踩刹车,一边亮红灯:AI法案延期,但“脱衣应用”先别想跑了
人工智能 2026/4/24

欧盟一边踩刹车,一边亮红灯:AI法案延期,但“脱衣应用”先别想跑了

欧盟议会最新表态很有意思:对AI监管的整体时间表选择放慢脚步,但对“脱衣应用”这类明显越线的产品,却准备更直接地下禁令。这不是简单的政策摇摆,而是一次现实主义调整——当立法赶不上技术时,先堵最危险的洞,再给更复杂的合规问题争取时间。

欧盟人工智能法案AI监管欧盟议会
15%美国人愿接受AI上司,但AI真正的信任危机在账单、岗位和数据中心
人工智能 2026/4/26

15%美国人愿接受AI上司,但AI真正的信任危机在账单、岗位和数据中心

昆尼皮亚克大学民调中,只有少数美国人愿意接受AI当上司,这反映的不是单一职场偏好,而是公众对AI进入权力位置的谨慎。斯坦福2025 AI Index报告进一步补上了背景:AI圈谈AGI和模型能力,普通人更关心工资、医疗、就业和电费,数据中心也因此从技术基础设施变成地方政治议题。

AI信任危机AI上司公众态度
当 AI 开始替你“修家谱”:一位开发者把人生做成了可检索的个人维基
人工智能 2026/4/26

当 AI 开始替你“修家谱”:一位开发者把人生做成了可检索的个人维基

开源项目 whoami.wiki 做了一件很有这个时代气质的事:把散落在相册、聊天记录、定位历史和消费流水里的个人数据,整理成像维基百科那样可追溯、可链接、可检索的人生条目。它不只是一个“AI 帮你写回忆录”的工具,更像是在提醒我们:在大模型时代,真正稀缺的也许不是数据,而是把生活重新讲清楚的能力。

whoami.wiki个人维基大模型
Meta在员工电脑上部署MCI:记录点击、击键和截图,拿真实工作流训练AI代理
人工智能 2026/4/24

Meta在员工电脑上部署MCI:记录点击、击键和截图,拿真实工作流训练AI代理

Meta正向美国员工电脑部署内部工具MCI,采集工作相关应用和网站中的鼠标移动、点击、击键和部分截图,用来训练AI代理学会像人一样操作软件。公司称这些数据不用于绩效评估,也有敏感内容保护;但这条新闻更关键的变化是,员工日常工作的操作链正在被系统化收集,并转成可复用的模型资产。

MetaMCIAI代理
AI 训练淘金热背后,印度专家网络又捧出一家新独角兽候选:Deccan AI 融资 2500 万美元
人工智能 2026/4/24

AI 训练淘金热背后,印度专家网络又捧出一家新独角兽候选:Deccan AI 融资 2500 万美元

Deccan AI 拿到 2500 万美元 A 轮融资,表面看是一笔普通的 AI 创业公司募资,背后却折射出一个越来越清晰的现实:大模型的竞争,早已不只是比谁会“训模型”,更是在比谁能更稳定、更低成本地把模型“教好”。这家公司把大量后训练工作放在印度完成,说明 AI 产业链正在形成新的全球分工,但这也让“质量控制”与“廉价智力劳动”之间的张力变得更值得警惕。

模型后训练Deccan AIA轮融资
Spotify 给艺人发绿勾:补 AI 假歌漏洞,也把“谁是真艺人”交给平台
人工智能 2026/4/30

Spotify 给艺人发绿勾:补 AI 假歌漏洞,也把“谁是真艺人”交给平台

Spotify 推出“Verified by Spotify”艺人认证徽章,绿色对勾会出现在艺人主页和搜索结果里,用来帮助听众区分真实人类艺人与 AI 项目、冒名账号。它和此前测试的艺人发片确认功能指向同一个问题:流媒体平台不只是歌太多,而是名字、主页、版权归属和身份信任正在被低成本生成内容污染。绿勾能先止血,但也会让 Spotify 拿到更大的定义权。

SpotifyVerified by SpotifyAI生成音乐
把 160GB 大模型塞进笔记本:量化为什么成了 AI 落地的“省钱魔法”
人工智能 2026/4/24

把 160GB 大模型塞进笔记本:量化为什么成了 AI 落地的“省钱魔法”

当一个 800 亿参数模型动辄吃掉 159GB 内存,所谓“人人可用的 AI”其实还停留在口号阶段。ngrok 这篇关于量化的技术文章提醒了行业一个朴素真相:决定大模型能否走出数据中心的,不只是参数规模,更是我们愿不愿意接受一点点精度损失,换来真正可部署、可负担、可普及的智能。

模型量化大语言模型部署Qwen-3-Coder-Next
AI会做题还不够,得会动手:ARC-AGI-3把“行动能力差距”量出来了
人工智能 2026/4/24

AI会做题还不够,得会动手:ARC-AGI-3把“行动能力差距”量出来了

旧稿讨论的是 ARC-AGI-3 为什么比传统智力测试更接近“真正的智能差距”。新线索补强了两个关键变量:一是 Symbolica 在公共评测上给出 36.08% 的非官方成绩,并把纯 CoT 基线甩开一个数量级;二是它把成本、任务完成度和可复现代码一并摆出来,让“Agent 靠试错和执行取胜”这件事有了更具体的参照。问题也随之更清楚:下一轮 AI 竞争,可能不是谁更会解释,而是谁能在环境里持续把事做完。

ARC-AGI-3Agent 能力Symbolica
Meta给家长开放AI话题洞察:产品设计责任,正在从社交平台延伸到聊天机器人
人工智能 2026/4/24

Meta给家长开放AI话题洞察:产品设计责任,正在从社交平台延伸到聊天机器人

Meta开始让家长在监管中心查看孩子过去一周与Meta AI互动的话题分类,但不开放完整对话和具体提问。这个功能补上了青少年AI使用的一层可见护栏,也进一步说明:Meta在青少年安全争议中最难辩护的,仍是产品设计本身。

Meta AIMeta青少年安全
Ente 推出本地大模型应用 Ensu:当 AI 开始住进你的手机,而不是别人的云
人工智能 2026/4/24

Ente 推出本地大模型应用 Ensu:当 AI 开始住进你的手机,而不是别人的云

做加密相册起家的 Ente,正式发布离线大模型应用 Ensu,试图把聊天式 AI 从云端拉回用户设备。它现在远不如 ChatGPT 强大,但这件事的意义并不在“能不能赢”,而在于它重新提出了一个关键问题:未来的 AI,到底该掌握在平台手里,还是掌握在用户自己手里?

本地大模型EnsuEnte