1月
13日
4 条新闻
19:02
CoreWeave 在英国开设首批数据中心,标志着其首次扩展至美国以外市场。这些数据中心采用 Nvidia 的 Hopper GPU,专为高性能计算和 AI 工作负载设计。此举与英国政府五年投资计划同步,旨在提升政府拥有的 AI 计算能力并推动 AI 基础设施发展。CoreWeave 从加密货币挖矿转型为 AI 计算服务提供商,反映了 AI 计算需求的激增。公司计划在 2025 年新增 10 个数据中心,其中 3 个位于欧洲。这一扩展凸显了 AI 基础设施在全球范围内的快速增长和重要性。
09:47
阿里通义团队推出 Qwen Chat:支持全系列 Qwen 模型
Qwen Chat 是阿里通义团队近日上线的一款基于开源的 Open WebUI 的 WebUI,支持 Qwen 全系列模型。
模型包括 Qwen2.5-Plus 对话模型、QwQ 和 QVQ 等推理模型,以及 Qwen2.5-Coder-32B-Instruct 编程模型。
Qwen Chat 支持同时对比多个模型,还即将推出网络搜索、图像生成和语音模式,值得期待。
09:47
Adobe FaceLift:单张照片生成高保真 3D 头部模型
FaceLift 是 Adobe 最新发布的一项技术,仅需一张人脸照片,就能快速生成高保真的 3D 头部模型。
该技术首先利用扩散模型从单张脸部照片生成侧面和背面的视图,然后通过 GS-LRM 重建器生成 3D 高斯样条表示,实现全头新视角的合成。
此外,FaceLift 还能处理视频输入,进行 4D 合成,并与 2D 动画技术结合,实现 3D 面部动画。
从官网的一些交互式案例来看,效果还不错,不过不能放大看,恐怖谷效应拉满了。目前这项技术还没有开源,关注我为你持续跟进。
01:30
苹果董事会反对废除DEI项目提案
Apple 董事会反对废除其多元化、公平与包容(DEI)计划的提案,强调其现有合规计划足以应对法律风险。这一决策反映了企业在 AI 技术发展中面临的伦理与合规挑战,尤其是在数据安全、算法公平性和模型可解释性方面。随着 AI 在招聘、员工管理和文化塑造中的应用日益广泛,确保技术应用的公平性和透明度成为关键。Apple 的立场也凸显了 AI 伦理规范在商业落地中的重要性,为其他企业提供了参考。
1月
11日
2 条新闻
23:00
英伟达的AI帝国:聚焦其顶级初创投资
Nvidia 在生成式 AI 浪潮中迅速崛起,成为 AI 生态系统的关键推动者。自 ChatGPT 发布以来,其营收和股价大幅增长,并显著加大了对 AI 初创企业的投资。2024 年,Nvidia 参与了 49 轮 AI 公司融资,远超过去四年总和。其投资重点包括 OpenAI、xAI、Inflection 等生成式 AI 领军企业,以及自动驾驶、数据标注等领域的创新公司。Nvidia 通过战略投资扩展 AI 生态系统,推动大模型、自动驾驶、AI 基础设施等技术的商业化落地,展现了其在 AI 产业链中的核心地位。
07:33
Meta取消DEI项目
Meta 近期宣布取消其多元化、公平与包容(DEI)计划,包括招聘、培训和供应链多元化等举措,同时解散 DEI 部门。这一决策反映了美国法律和政策环境的变化,微软和 Zoom 也采取了类似行动。此外,Meta 将减少对 Facebook、Instagram 和 Threads 上言论的事实核查力度,引发用户不满,删除账户的搜索量激增。这一系列举措可能影响 AI 伦理规范和数据多样性,进而对 AI 模型的公平性和可解释性产生长期影响。
1月
10日
6 条新闻
21:00
Gumloop成立于温哥华的一间卧室,让用户通过拖放模块自动执行任务
Gumloop 利用 AI 技术实现企业工作流自动化,专注于简化重复性任务。其基于 Auto-GPT 的模块化工作流构建器,支持与 GitHub、Gmail 等第三方工具集成,为非技术人员提供低门槛的自动化解决方案。尽管当前 AI 在复杂任务中的可靠性有限,Gumloop 通过聚焦特定场景,展现了 AI 在提升效率和降低成本方面的潜力。公司计划保持小团队规模,利用 AI 辅助开发实现高效产出,并已获得 2000 万美元融资,加速产品扩展。
09:54
百度与复旦大学联合开源 Hello3:革命性数字人头动画技术
Hello3 是复旦大学和百度联合开源的数字人头(肖像动画)技术,能让静态肖像在各种场景下动起来,而且动作自然、画面逼真。它不仅能处理正面肖像,还能应对各种角度和姿态,甚至能让肖像与周围物体互动。
与之前的 Hallo2 相比,Hallo3 在生成动态场景和沉浸式背景方面有了显著提升,让肖像动画不再局限于简单的表情变化,而是能将角色也融入到场景中。
06:37
TikTok告知受野火影响的洛杉矶员工,如无法在家工作请使用个人或病假时间
AI 技术在自然灾害管理中的应用潜力凸显。洛杉矶山火事件中,TikTok 员工因停电和疏散令被迫居家办公,暴露了远程协作工具的局限性。未来,AI 驱动的智能应急管理系统可通过联邦学习整合多源数据,实时预测灾害影响,优化资源分配,并支持远程办公基础设施的弹性扩展。此外,AI 辅助的心理健康服务(如 Lyra)在危机中的重要性也得到验证,为 AI 在灾害应对和员工福祉领域的深度应用提供了新思路。
02:10
马克·扎克伯格批准Meta的Llama团队使用受版权保护的作品进行训练,并提交相关声明
Meta 因使用盗版数据集 LibGen 训练 Llama 大语言模型面临版权诉讼。诉讼文件显示,Meta CEO 扎克伯格批准使用该数据集,尽管公司内部对版权风险存在担忧。Meta 被指控通过删除版权信息掩盖侵权行为,并采用 torrent 技术获取数据。此案凸显了 AI 模型训练中数据来源合法性的关键挑战,以及大模型开发与版权保护的复杂平衡。
00:16
PowerSchool称黑客窃取了学生的敏感数据,包括社会安全号码,造成数据泄露
教育科技巨头 PowerSchool 遭遇数据泄露,黑客窃取了包括学生社保号、成绩和医疗信息在内的高度敏感数据。此次事件凸显了 AI 在教育领域应用中数据安全的严峻挑战。随着 AI 技术在教育管理系统的广泛应用,如何通过联邦学习等技术保护敏感数据,同时提升系统安全性,成为行业亟待解决的问题。未来,AI 在数据加密、异常检测等安全领域的创新将至关重要。
00:03
谷歌的“每日聆听”AI功能根据您的Discover信息流生成播客
Google 正在测试基于 AI 的“Daily Listen”功能,通过用户 Discover 订阅内容自动生成个性化播客。该功能利用大语言模型和多模态技术,将用户兴趣转化为 5 分钟音频摘要,并附带相关故事链接。Daily Listen 与 NotebookLM 的 Audio Overviews 类似,均通过 AI 虚拟主持人生成内容,展现了 AI 在个性化内容生成领域的创新应用。该功能目前面向美国用户开放,标志着 AI 在音频内容创作和个性化推荐领域的进一步落地。
1月
9日
5 条新闻
15:25
xAI 正在测试其Grok聊天机器人的独立iOS应用
Elon Musk 的 AI 公司 xAI 推出独立 iOS 应用 Grok,扩展其多模态生成式 AI 能力。Grok 支持实时数据访问、文本重写、段落摘要、问答及文本生成图像等功能,尤其在图像生成领域表现出色,支持逼真渲染且限制较少。xAI 计划通过 Grok.com 提供网页版访问,进一步推动 AI 助手在智能交互与内容创作领域的应用。此举标志着生成式 AI 在跨平台部署与商业化落地上的重要进展。
09:14
SAI 开源 SPAR3D:一秒内从单图生成可编辑 3D 模型
SPAR3D 是 SAI 最近开源的一项图生 3D 技术,能够在短短一秒内从单张图片生成可编辑的 3D 模型。这项技术对于商业和非商业用途均免费开放,只要年收入小于 100 万美元即可使用。目前,代码和模型都已经公开发布。
09:14
Adobe 发布 TransPixar:生成透明背景视频的创新技术
TransPixar 是 Adobe 最新发布的一项创新技术,能够通过文本和图像生成透明背景的视频。
不仅支持创建烟雾和反射等透明元素,还提供了高度逼真的视觉效果。可以看看演示视频,效果相当不错。也可以在 Hugging Face 体验在线版本,不过在线版限制了帧率和推理步骤。代码是开源的,有兴趣的可以直接本地部署。
09:14
NeuralSVG:文本生成可编辑矢量图形的创新工具
NeuralSVG 是一款创新的工具,能够根据文本提示生成有序且可编辑的矢量图形。通过简化和分层 SVG 输出,NeuralSVG 解决了传统 SVG 生成结构过于复杂、难以二次编辑的问题。
官方展示的效果非常出色,生成的 SVG 文件不仅结构清晰,还支持分层编辑,极大地方便了设计师和开发者。目前,NeuralSVG 尚未开源,但我会持续跟进最新动态,第一时间为大家带来更新。关注我,不错过任何重要信息!
02:24
乌克兰黑客声称对攻击俄罗斯互联网服务提供商负责,该攻击摧毁了服务器并导致互联网中断
俄罗斯互联网服务提供商 Nodex 遭受乌克兰黑客组织攻击,导致其网络系统被完全破坏,服务器数据被擦除,客户互联网连接中断。此次事件凸显了网络安全在 AI 基础设施中的重要性,尤其是在分布式系统、数据备份和恢复等关键领域。AI 技术如联邦学习和强化学习可用于增强网络防御能力,而多模态模型和预训练模型在威胁检测和响应中具有潜力。未来,AI 驱动的网络安全解决方案将成为保护关键基础设施的重要趋势。
1月
8日
3 条新闻
23:31
微软在用户投诉图像质量下降后回退其必应图像生成模型
微软在 Bing Image Creator 中升级了基于 OpenAI DALL-E 3 的 AI 图像生成模型(PR16),承诺提升生成速度与质量,但用户反馈图像质量显著下降,导致微软决定回滚至旧版本(PR13)。此次事件凸显了 AI 模型在真实场景中的评估挑战,内部基准测试与用户感知存在偏差。同时,这也反映了多模态生成模型在细节与真实性优化上的技术瓶颈,以及企业在模型迭代中平衡性能与用户体验的复杂性。
22:15
教育科技巨头PowerSchool表示黑客访问了学生和教师的个人数据
教育科技巨头 PowerSchool 遭遇网络安全事件,黑客通过其客户支持门户 PowerSource 入侵学校信息系统 PowerSchool SIS,获取了 K-12 学生和教师的个人数据。事件暴露了 AI 在教育数据管理中的安全挑战,尤其是敏感数据的保护与隐私合规问题。尽管 PowerSchool 声称已控制事件并支付赎金以防止数据泄露,但此次事件凸显了 AI 系统在数据安全、访问控制和伦理规范方面的关键漏洞,亟需加强联邦学习、数据加密等技术的应用,以应对日益复杂的网络威胁。
17:54
联合国航空机构确认黑客入侵招聘数据库获取数千条记录
联合国航空机构确认其招聘数据库遭黑客入侵,约4.2万条招聘申请数据泄露。此次事件凸显了数据安全在AI应用中的重要性,尤其是在涉及敏感信息的场景下。AI技术在网络安全领域的应用,如异常检测和威胁预测,将成为未来发展的关键方向。同时,这也强调了在AI系统设计和部署中,数据隐私保护和访问控制的重要性。