已选标签:
1月 6日
1 条新闻
04:48

对Adrian Dittman/Elon Musk阴谋论者的坏消息

新闻揭示了 AI 在身份验证和社交媒体分析中的应用潜力。通过语音识别和图像分析技术,结合社交媒体行为数据,AI 能够辅助验证用户身份的真实性。这一案例展示了 AI 在跨模态数据分析(如语音、图像和行为模式)中的实际应用,突显了其在网络安全和数字身份管理领域的重要性。未来,随着多模态 AI 技术的进一步发展,类似应用将更加精准和高效。

来源:TechCrunch AI

1月 4日
2 条新闻
00:00

微软计划在2025财年投入800亿美元用于人工智能数据中心

微软计划在2025财年投入800亿美元建设AI数据中心,主要用于训练AI模型和部署全球AI及云应用。其中超半数投资将用于美国,旨在推动AI技术创新和生产力提升。微软与OpenAI正合作开发名为Stargate的AI超级计算机数据中心,预计耗资超1000亿美元。此举凸显AI对算力和电力的巨大需求,可能引发数据中心电力短缺问题,同时也标志着AI基础设施建设的全球竞争加剧。

来源:TechCrunch AI

00:00

探秘 Bench 的疯狂跌落与最后一刻的复兴:这家风投支持的会计初创公司在节假日期间分崩离析

加拿大会计初创公司 Bench 因过度依赖 AI 自动化工具而陷入困境,最终导致业务崩溃。该公司试图通过 AI 自动化会计任务(如费用分类)来降低成本,但技术执行存在缺陷,工具未能有效运行,导致客户流失和运营延迟。Bench 的案例凸显了 AI 在金融科技领域应用的技术挑战,包括模型可靠性、自动化与人工服务的平衡,以及商业落地中的执行风险。这一事件为 AI 驱动型企业的战略规划和实施提供了重要警示。

来源:TechCrunch AI

1月 3日
2 条新闻
00:00

xAI的下一代AI模型未能按时发布,延续了这一趋势。

xAI 的下一代大模型 Grok 3 未能如期发布,反映了当前 AI 模型发展的技术瓶颈。尽管 Elon Musk 曾表示 Grok 3 将在 2024 年底推出,并基于 10 万块 H100 GPU 进行训练,但至今未见其踪影。这一延迟与 Anthropic、Google 和 OpenAI 等公司在旗舰模型发布上的挫折相呼应,凸显了现有 AI 扩展法则的局限性。随着模型性能提升的边际效益递减,企业正探索替代技术路径。此外,xAI 团队规模较小也可能影响了开发进度。这一趋势表明,传统 AI 训练方法正面临瓶颈,亟需技术创新以突破现有局限。

来源:TechCrunch AI

00:00

Cloudflare的VPN应用在印度应用商店中被下架

印度政府近期对VPN应用实施严格监管,要求提供商保留用户数据五年,导致包括Cloudflare 1.1.1.1在内的多款VPN应用从应用商店下架。此举凸显了数据安全与隐私保护在AI应用中的重要性,尤其是在联邦学习和边缘计算等场景下,如何在合规与技术创新之间取得平衡成为关键挑战。未来,AI技术需进一步优化数据加密与匿名化处理,以应对全球日益严格的隐私法规。

来源:TechCrunch AI

1月 2日
3 条新闻
00:00

Apheris利用联邦计算重新思考生命科学中的AI数据瓶颈

Apheris 通过联邦计算技术解决生命科学领域 AI 数据瓶颈,确保数据在本地处理,仅集中聚合模型参数,保护患者隐私和 IP。其 Apheris Compute Gateway 已应用于 AI 驱动的药物发现,如蛋白质复合物预测。公司近期完成 825 万美元 A 轮融资,总融资达 2080 万美元,将用于招聘生命科学背景的高级人才。Apheris 强调,只有解决数据所有者对 AI 数据使用的担忧,才能真正释放 AI 的潜力。

来源:TechCrunch AI

00:00

人们正在玩一种新的DOOM主题CAPTCHA

人们正在玩一种新的DOOM主题CAPTCHA

Vercel CEO 利用 AI 网站构建工具创新 CAPTCHA 验证方式,将经典游戏 DOOM 融入验证流程,用户需击杀至少三个怪物以证明非机器人身份。这一 AI 驱动的交互式 CAPTCHA 不仅提升了用户体验,还展示了 AI 在增强人机交互和反欺诈技术中的潜力。尽管技术并非全新,但其创意性和趣味性引发开发者社区热议,凸显了 AI 在优化传统验证机制中的应用价值。

来源:TechCrunch AI

00:00

调查揭露儿童网红行业中的恋童癖现象

《AI 在儿童内容安全中的应用与挑战》:纽约时报调查揭露儿童网红行业中的潜在性侵风险,凸显 AI 在内容审核和用户行为分析中的重要性。Meta 已通过隐私设置和互动限制保护未成年账户,但 AI 需进一步优化以识别隐蔽的恶意行为。未来,结合多模态模型和联邦学习,AI 可在保护隐私的同时,提升对异常行为的检测能力,为儿童在线安全提供更全面的技术保障。

来源:TechCrunch AI

1月 1日
5 条新闻
00:00

硅谷在2024年抑制了人工智能末日运动

2024 年,生成式 AI 的商业化浪潮盖过了对 AI 潜在风险的担忧。尽管 2023 年 Elon Musk 等科技领袖呼吁暂停 AI 开发,强调其可能导致人类灭绝的风险,但以 a16z 创始人 Marc Andreessen 为代表的乐观派主张加速 AI 发展,认为 AI 将拯救世界而非毁灭它。Andreessen 提出“快速行动,打破常规”的策略,主张减少监管以促进 AI 创新,确保美国在 AI 领域的竞争力。然而,这种技术乐观主义在收入不平等、疫情和住房危机的背景下引发争议。与此同时,OpenAI 内部对 AGI(人工通用智能)的担忧导致 Sam Altman 被解雇,突显了 AI 发展中的伦理与安全挑战。尽管 2023 年 AI 安全成为主流话题,2024 年科技行业更倾向于推动 AI 的商业化落地,而非聚焦于安全与监管。

来源:TechCrunch AI

00:00

法官允许加州对未成年人上瘾性食品的禁令生效

加州新法 SB 976 禁止向未成年人提供基于行为推荐的“成瘾性内容流”,要求企业使用 AI 年龄估计技术识别用户年龄并调整内容推荐。该法定义“成瘾性内容流”为基于用户行为而非明确偏好的算法推荐系统。从 2027 年起,企业需采用“年龄验证技术”确保合规。此举凸显了 AI 推荐算法在内容分发中的伦理挑战,并推动了对未成年人数据保护的技术创新。尽管科技游说团体 NetChoice 以第一修正案为由提起诉讼,法院仍支持该法核心条款,标志着 AI 技术在法律与伦理框架下的进一步规范。

来源:TechCrunch AI

00:00

Waymo 自动驾驶出租车与 Serve 送货车在洛杉矶发生碰撞

Waymo 自动驾驶出租车与 Serve Robotics 配送机器人在洛杉矶发生碰撞,凸显了自动驾驶技术在实际应用中的挑战。Waymo 的 Driver 系统能够识别并分类道路上的物体,但在面对非生命物体时,其决策逻辑仍需优化。此次事件引发了对自动驾驶车辆责任归属的讨论,尤其是在多类型机器人共存的环境中。随着更多自动驾驶车辆上路,如何确保其安全性和责任划分将成为关键议题。两家公司已开始合作,以避免类似事件再次发生,这反映了自动驾驶技术在商业落地过程中需要解决的伦理和技术问题。

来源:TechCrunch AI

00:00

OpenAI 未能在2025年前提供承诺的退出工具

OpenAI 原计划于 2025 年推出 Media Manager 工具,旨在通过机器学习技术帮助创作者管理其作品在 AI 训练数据中的使用权限。该工具承诺识别并尊重文本、图像、音频和视频的版权,以应对日益严峻的知识产权争议。然而,由于内部优先级调整,开发进展停滞,未能如期发布。当前,OpenAI 面临多起版权诉讼,涉及艺术家、作家和媒体机构,凸显了 AI 模型在训练数据使用上的法律与伦理挑战。尽管 OpenAI 提供了临时退出机制,但创作者普遍认为这些措施不够完善。Media Manager 的延迟发布反映了 AI 行业在数据合规性和创作者权益保护方面的技术与管理难题。

来源:TechCrunch AI

00:00

美国财政部称中国在“重大”网络攻击中获取了政府文件

美国财政部遭遇网络攻击事件凸显了 AI 在网络安全领域的双重角色:一方面,攻击者可能利用 AI 技术增强攻击效率,如通过深度学习优化密码破解或自动化漏洞扫描;另一方面,防御方可通过 AI 驱动的威胁检测系统(如基于机器学习的异常行为分析)提升安全防护能力。此次事件涉及远程访问技术供应商 BeyondTrust,表明供应链安全的重要性,AI 可被用于供应链风险评估与监控。未来,联邦学习等隐私计算技术或将成为保护敏感数据的关键手段,同时 AI 在网络安全领域的应用将更加注重可解释性与实时响应能力。

来源:TechCrunch AI

12月 31日
4 条新闻
00:00

AT&T和Verizon表示,在遭到与中国有关的Salt Typhoon黑客攻击后,网络依然安全。

美国电信巨头 AT&T 和 Verizon 成功防御了与中国相关的 Salt Typhoon 网络间谍组织的攻击,展示了 AI 在网络安全领域的应用。通过 AI 驱动的威胁检测和响应系统,两家公司迅速识别并遏制了攻击,保护了政府和高价值客户的数据。此次事件凸显了 AI 在实时监控、异常行为识别和自动化防御中的关键作用,同时也强调了 AI 技术在应对国家级网络威胁中的重要性。未来,AI 在网络安全领域的应用将进一步深化,特别是在威胁情报分析和自动化响应方面。

来源:TechCrunch AI

00:00

OpenAI 新模型 o1 如何主动推理安全规则,提升 AI 安全性

OpenAI 新模型 o1 如何主动推理安全规则,提升 AI 安全性

OpenAI 推出的新 o 系列模型能够理解并积极推理特定的安全指南,不再依赖示例学习。o1 模型通过三个阶段的训练,显著提升了安全性,在拒绝有害请求和准确性方面优于其他主流系统。然而,黑客仍能操纵新模型,显示了控制复杂 AI 系统的难度。OpenAI 有约100名员工专注于 AI 安全,强调与人类价值观对齐的重要性。

来源:AI 基地

00:00

Bench在突然关闭后将被收购

Bench在突然关闭后将被收购

AI 驱动的会计平台 Bench 在突然关闭后被 HR 科技公司 Employer.com 收购,凸显了 AI 技术在金融科技领域的应用挑战。Bench 曾服务于超过 12,000 家小型企业,其平台依赖 AI 技术进行自动化会计和税务管理。此次收购将重启 Bench 的 AI 服务,并探索与 Employer.com 的 HR 技术整合,可能推动 AI 在财务和人力资源领域的多模态融合。然而,数据安全、服务连续性和客户信任成为关键挑战,反映了 AI 商业落地中的复杂性和技术伦理问题。

来源:TechCrunch AI

00:00

NVIDIA完成对AI基础设施初创公司Run:ai的收购

Nvidia 完成对 AI 基础设施管理公司 Run:ai 的收购,后者软件将开源,支持 AMD 和 Intel 等竞争对手硬件。此举旨在扩展 AI 生态系统,提升硬件资源优化能力。Run:ai 的技术专注于 AI 模型训练和推理的算力效率,开源后将推动更广泛的产业应用。此次收购曾面临欧美监管审查,最终获欧盟批准,标志着 AI 基础设施领域竞争格局的演变。

来源:TechCrunch AI