已选标签:
1月 10日
3 条新闻
06:37

TikTok告知受野火影响的洛杉矶员工,如无法在家工作请使用个人或病假时间

AI 技术在自然灾害管理中的应用潜力凸显。洛杉矶山火事件中,TikTok 员工因停电和疏散令被迫居家办公,暴露了远程协作工具的局限性。未来,AI 驱动的智能应急管理系统可通过联邦学习整合多源数据,实时预测灾害影响,优化资源分配,并支持远程办公基础设施的弹性扩展。此外,AI 辅助的心理健康服务(如 Lyra)在危机中的重要性也得到验证,为 AI 在灾害应对和员工福祉领域的深度应用提供了新思路。

来源:TechCrunch AI

02:10

马克·扎克伯格批准Meta的Llama团队使用受版权保护的作品进行训练,并提交相关声明

Meta 因使用盗版数据集 LibGen 训练 Llama 大语言模型面临版权诉讼。诉讼文件显示,Meta CEO 扎克伯格批准使用该数据集,尽管公司内部对版权风险存在担忧。Meta 被指控通过删除版权信息掩盖侵权行为,并采用 torrent 技术获取数据。此案凸显了 AI 模型训练中数据来源合法性的关键挑战,以及大模型开发与版权保护的复杂平衡。

来源:TechCrunch AI

00:16

PowerSchool称黑客窃取了学生的敏感数据,包括社会安全号码,造成数据泄露

教育科技巨头 PowerSchool 遭遇数据泄露,黑客窃取了包括学生社保号、成绩和医疗信息在内的高度敏感数据。此次事件凸显了 AI 在教育领域应用中数据安全的严峻挑战。随着 AI 技术在教育管理系统的广泛应用,如何通过联邦学习等技术保护敏感数据,同时提升系统安全性,成为行业亟待解决的问题。未来,AI 在数据加密、异常检测等安全领域的创新将至关重要。

来源:TechCrunch AI

1月 9日
1 条新闻
02:24

乌克兰黑客声称对攻击俄罗斯互联网服务提供商负责,该攻击摧毁了服务器并导致互联网中断

俄罗斯互联网服务提供商 Nodex 遭受乌克兰黑客组织攻击,导致其网络系统被完全破坏,服务器数据被擦除,客户互联网连接中断。此次事件凸显了网络安全在 AI 基础设施中的重要性,尤其是在分布式系统、数据备份和恢复等关键领域。AI 技术如联邦学习和强化学习可用于增强网络防御能力,而多模态模型和预训练模型在威胁检测和响应中具有潜力。未来,AI 驱动的网络安全解决方案将成为保护关键基础设施的重要趋势。

来源:TechCrunch AI

1月 8日
3 条新闻
23:31

微软在用户投诉图像质量下降后回退其必应图像生成模型

微软在 Bing Image Creator 中升级了基于 OpenAI DALL-E 3 的 AI 图像生成模型(PR16),承诺提升生成速度与质量,但用户反馈图像质量显著下降,导致微软决定回滚至旧版本(PR13)。此次事件凸显了 AI 模型在真实场景中的评估挑战,内部基准测试与用户感知存在偏差。同时,这也反映了多模态生成模型在细节与真实性优化上的技术瓶颈,以及企业在模型迭代中平衡性能与用户体验的复杂性。

来源:TechCrunch AI

22:15

教育科技巨头PowerSchool表示黑客访问了学生和教师的个人数据

教育科技巨头 PowerSchool 遭遇网络安全事件,黑客通过其客户支持门户 PowerSource 入侵学校信息系统 PowerSchool SIS,获取了 K-12 学生和教师的个人数据。事件暴露了 AI 在教育数据管理中的安全挑战,尤其是敏感数据的保护与隐私合规问题。尽管 PowerSchool 声称已控制事件并支付赎金以防止数据泄露,但此次事件凸显了 AI 系统在数据安全、访问控制和伦理规范方面的关键漏洞,亟需加强联邦学习、数据加密等技术的应用,以应对日益复杂的网络威胁。

来源:TechCrunch AI

17:54

联合国航空机构确认黑客入侵招聘数据库获取数千条记录

联合国航空机构确认其招聘数据库遭黑客入侵,约4.2万条招聘申请数据泄露。此次事件凸显了数据安全在AI应用中的重要性,尤其是在涉及敏感信息的场景下。AI技术在网络安全领域的应用,如异常检测和威胁预测,将成为未来发展的关键方向。同时,这也强调了在AI系统设计和部署中,数据隐私保护和访问控制的重要性。

来源:TechCrunch AI

1月 6日
1 条新闻
04:48

对Adrian Dittman/Elon Musk阴谋论者的坏消息

新闻揭示了 AI 在身份验证和社交媒体分析中的应用潜力。通过语音识别和图像分析技术,结合社交媒体行为数据,AI 能够辅助验证用户身份的真实性。这一案例展示了 AI 在跨模态数据分析(如语音、图像和行为模式)中的实际应用,突显了其在网络安全和数字身份管理领域的重要性。未来,随着多模态 AI 技术的进一步发展,类似应用将更加精准和高效。

来源:TechCrunch AI

1月 4日
1 条新闻
00:00

探秘 Bench 的疯狂跌落与最后一刻的复兴:这家风投支持的会计初创公司在节假日期间分崩离析

加拿大会计初创公司 Bench 因过度依赖 AI 自动化工具而陷入困境,最终导致业务崩溃。该公司试图通过 AI 自动化会计任务(如费用分类)来降低成本,但技术执行存在缺陷,工具未能有效运行,导致客户流失和运营延迟。Bench 的案例凸显了 AI 在金融科技领域应用的技术挑战,包括模型可靠性、自动化与人工服务的平衡,以及商业落地中的执行风险。这一事件为 AI 驱动型企业的战略规划和实施提供了重要警示。

来源:TechCrunch AI

1月 3日
1 条新闻
00:00

Cloudflare的VPN应用在印度应用商店中被下架

印度政府近期对VPN应用实施严格监管,要求提供商保留用户数据五年,导致包括Cloudflare 1.1.1.1在内的多款VPN应用从应用商店下架。此举凸显了数据安全与隐私保护在AI应用中的重要性,尤其是在联邦学习和边缘计算等场景下,如何在合规与技术创新之间取得平衡成为关键挑战。未来,AI技术需进一步优化数据加密与匿名化处理,以应对全球日益严格的隐私法规。

来源:TechCrunch AI

1月 2日
3 条新闻
00:00

Apheris利用联邦计算重新思考生命科学中的AI数据瓶颈

Apheris 通过联邦计算技术解决生命科学领域 AI 数据瓶颈,确保数据在本地处理,仅集中聚合模型参数,保护患者隐私和 IP。其 Apheris Compute Gateway 已应用于 AI 驱动的药物发现,如蛋白质复合物预测。公司近期完成 825 万美元 A 轮融资,总融资达 2080 万美元,将用于招聘生命科学背景的高级人才。Apheris 强调,只有解决数据所有者对 AI 数据使用的担忧,才能真正释放 AI 的潜力。

来源:TechCrunch AI

00:00

人们正在玩一种新的DOOM主题CAPTCHA

人们正在玩一种新的DOOM主题CAPTCHA

Vercel CEO 利用 AI 网站构建工具创新 CAPTCHA 验证方式,将经典游戏 DOOM 融入验证流程,用户需击杀至少三个怪物以证明非机器人身份。这一 AI 驱动的交互式 CAPTCHA 不仅提升了用户体验,还展示了 AI 在增强人机交互和反欺诈技术中的潜力。尽管技术并非全新,但其创意性和趣味性引发开发者社区热议,凸显了 AI 在优化传统验证机制中的应用价值。

来源:TechCrunch AI

00:00

调查揭露儿童网红行业中的恋童癖现象

《AI 在儿童内容安全中的应用与挑战》:纽约时报调查揭露儿童网红行业中的潜在性侵风险,凸显 AI 在内容审核和用户行为分析中的重要性。Meta 已通过隐私设置和互动限制保护未成年账户,但 AI 需进一步优化以识别隐蔽的恶意行为。未来,结合多模态模型和联邦学习,AI 可在保护隐私的同时,提升对异常行为的检测能力,为儿童在线安全提供更全面的技术保障。

来源:TechCrunch AI

1月 1日
5 条新闻
00:00

硅谷在2024年抑制了人工智能末日运动

2024 年,生成式 AI 的商业化浪潮盖过了对 AI 潜在风险的担忧。尽管 2023 年 Elon Musk 等科技领袖呼吁暂停 AI 开发,强调其可能导致人类灭绝的风险,但以 a16z 创始人 Marc Andreessen 为代表的乐观派主张加速 AI 发展,认为 AI 将拯救世界而非毁灭它。Andreessen 提出“快速行动,打破常规”的策略,主张减少监管以促进 AI 创新,确保美国在 AI 领域的竞争力。然而,这种技术乐观主义在收入不平等、疫情和住房危机的背景下引发争议。与此同时,OpenAI 内部对 AGI(人工通用智能)的担忧导致 Sam Altman 被解雇,突显了 AI 发展中的伦理与安全挑战。尽管 2023 年 AI 安全成为主流话题,2024 年科技行业更倾向于推动 AI 的商业化落地,而非聚焦于安全与监管。

来源:TechCrunch AI

00:00

OpenAI 未能在2025年前提供承诺的退出工具

OpenAI 原计划于 2025 年推出 Media Manager 工具,旨在通过机器学习技术帮助创作者管理其作品在 AI 训练数据中的使用权限。该工具承诺识别并尊重文本、图像、音频和视频的版权,以应对日益严峻的知识产权争议。然而,由于内部优先级调整,开发进展停滞,未能如期发布。当前,OpenAI 面临多起版权诉讼,涉及艺术家、作家和媒体机构,凸显了 AI 模型在训练数据使用上的法律与伦理挑战。尽管 OpenAI 提供了临时退出机制,但创作者普遍认为这些措施不够完善。Media Manager 的延迟发布反映了 AI 行业在数据合规性和创作者权益保护方面的技术与管理难题。

来源:TechCrunch AI

00:00

法官允许加州对未成年人上瘾性食品的禁令生效

加州新法 SB 976 禁止向未成年人提供基于行为推荐的“成瘾性内容流”,要求企业使用 AI 年龄估计技术识别用户年龄并调整内容推荐。该法定义“成瘾性内容流”为基于用户行为而非明确偏好的算法推荐系统。从 2027 年起,企业需采用“年龄验证技术”确保合规。此举凸显了 AI 推荐算法在内容分发中的伦理挑战,并推动了对未成年人数据保护的技术创新。尽管科技游说团体 NetChoice 以第一修正案为由提起诉讼,法院仍支持该法核心条款,标志着 AI 技术在法律与伦理框架下的进一步规范。

来源:TechCrunch AI

00:00

Waymo 自动驾驶出租车与 Serve 送货车在洛杉矶发生碰撞

Waymo 自动驾驶出租车与 Serve Robotics 配送机器人在洛杉矶发生碰撞,凸显了自动驾驶技术在实际应用中的挑战。Waymo 的 Driver 系统能够识别并分类道路上的物体,但在面对非生命物体时,其决策逻辑仍需优化。此次事件引发了对自动驾驶车辆责任归属的讨论,尤其是在多类型机器人共存的环境中。随着更多自动驾驶车辆上路,如何确保其安全性和责任划分将成为关键议题。两家公司已开始合作,以避免类似事件再次发生,这反映了自动驾驶技术在商业落地过程中需要解决的伦理和技术问题。

来源:TechCrunch AI

00:00

美国财政部称中国在“重大”网络攻击中获取了政府文件

美国财政部遭遇网络攻击事件凸显了 AI 在网络安全领域的双重角色:一方面,攻击者可能利用 AI 技术增强攻击效率,如通过深度学习优化密码破解或自动化漏洞扫描;另一方面,防御方可通过 AI 驱动的威胁检测系统(如基于机器学习的异常行为分析)提升安全防护能力。此次事件涉及远程访问技术供应商 BeyondTrust,表明供应链安全的重要性,AI 可被用于供应链风险评估与监控。未来,联邦学习等隐私计算技术或将成为保护敏感数据的关键手段,同时 AI 在网络安全领域的应用将更加注重可解释性与实时响应能力。

来源:TechCrunch AI

12月 31日
2 条新闻
00:00

OpenAI 新模型 o1 如何主动推理安全规则,提升 AI 安全性

OpenAI 新模型 o1 如何主动推理安全规则,提升 AI 安全性

OpenAI 推出的新 o 系列模型能够理解并积极推理特定的安全指南,不再依赖示例学习。o1 模型通过三个阶段的训练,显著提升了安全性,在拒绝有害请求和准确性方面优于其他主流系统。然而,黑客仍能操纵新模型,显示了控制复杂 AI 系统的难度。OpenAI 有约100名员工专注于 AI 安全,强调与人类价值观对齐的重要性。

来源:AI 基地

00:00

Bench在突然关闭后将被收购

Bench在突然关闭后将被收购

AI 驱动的会计平台 Bench 在突然关闭后被 HR 科技公司 Employer.com 收购,凸显了 AI 技术在金融科技领域的应用挑战。Bench 曾服务于超过 12,000 家小型企业,其平台依赖 AI 技术进行自动化会计和税务管理。此次收购将重启 Bench 的 AI 服务,并探索与 Employer.com 的 HR 技术整合,可能推动 AI 在财务和人力资源领域的多模态融合。然而,数据安全、服务连续性和客户信任成为关键挑战,反映了 AI 商业落地中的复杂性和技术伦理问题。

来源:TechCrunch AI