已选标签:
1月 11日
1 条新闻
07:33

Meta取消DEI项目

Meta 近期宣布取消其多元化、公平与包容(DEI)计划,包括招聘、培训和供应链多元化等举措,同时解散 DEI 部门。这一决策反映了美国法律和政策环境的变化,微软和 Zoom 也采取了类似行动。此外,Meta 将减少对 Facebook、Instagram 和 Threads 上言论的事实核查力度,引发用户不满,删除账户的搜索量激增。这一系列举措可能影响 AI 伦理规范和数据多样性,进而对 AI 模型的公平性和可解释性产生长期影响。

来源:TechCrunch AI

1月 10日
5 条新闻
21:00

Gumloop成立于温哥华的一间卧室,让用户通过拖放模块自动执行任务

Gumloop 利用 AI 技术实现企业工作流自动化,专注于简化重复性任务。其基于 Auto-GPT 的模块化工作流构建器,支持与 GitHub、Gmail 等第三方工具集成,为非技术人员提供低门槛的自动化解决方案。尽管当前 AI 在复杂任务中的可靠性有限,Gumloop 通过聚焦特定场景,展现了 AI 在提升效率和降低成本方面的潜力。公司计划保持小团队规模,利用 AI 辅助开发实现高效产出,并已获得 2000 万美元融资,加速产品扩展。

来源:TechCrunch AI

17:06

特斯拉董事将支付最高9.19亿美元以和解自我过高薪酬的指控

特斯拉董事因超额薪酬诉讼达成和解,将返还高达9.19亿美元。此案涉及2017至2020年间的董事薪酬争议,凸显了企业治理与AI技术应用中的成本控制挑战。随着AI在自动驾驶等领域的深入应用,企业需平衡技术创新与财务透明,确保技术投入与商业伦理的协调发展。

来源:TechCrunch AI

06:37

TikTok告知受野火影响的洛杉矶员工,如无法在家工作请使用个人或病假时间

AI 技术在自然灾害管理中的应用潜力凸显。洛杉矶山火事件中,TikTok 员工因停电和疏散令被迫居家办公,暴露了远程协作工具的局限性。未来,AI 驱动的智能应急管理系统可通过联邦学习整合多源数据,实时预测灾害影响,优化资源分配,并支持远程办公基础设施的弹性扩展。此外,AI 辅助的心理健康服务(如 Lyra)在危机中的重要性也得到验证,为 AI 在灾害应对和员工福祉领域的深度应用提供了新思路。

来源:TechCrunch AI

02:10

马克·扎克伯格批准Meta的Llama团队使用受版权保护的作品进行训练,并提交相关声明

Meta 因使用盗版数据集 LibGen 训练 Llama 大语言模型面临版权诉讼。诉讼文件显示,Meta CEO 扎克伯格批准使用该数据集,尽管公司内部对版权风险存在担忧。Meta 被指控通过删除版权信息掩盖侵权行为,并采用 torrent 技术获取数据。此案凸显了 AI 模型训练中数据来源合法性的关键挑战,以及大模型开发与版权保护的复杂平衡。

来源:TechCrunch AI

00:16

PowerSchool称黑客窃取了学生的敏感数据,包括社会安全号码,造成数据泄露

教育科技巨头 PowerSchool 遭遇数据泄露,黑客窃取了包括学生社保号、成绩和医疗信息在内的高度敏感数据。此次事件凸显了 AI 在教育领域应用中数据安全的严峻挑战。随着 AI 技术在教育管理系统的广泛应用,如何通过联邦学习等技术保护敏感数据,同时提升系统安全性,成为行业亟待解决的问题。未来,AI 在数据加密、异常检测等安全领域的创新将至关重要。

来源:TechCrunch AI

1月 9日
2 条新闻
08:04

2025年CES充满了现实中的人工智能糟粕

2025年CES展会上,AI技术被过度应用于非核心场景,如智能调味品分配器、AI空气炸锅和游戏辅助工具,反映出行业对AI实际应用场景的探索不足。尽管AI公司融资高达970亿美元,但许多产品未能满足真实需求,且技术局限性明显,如ChatGPT的错误率和图像生成的不准确性。这表明AI行业在技术可行性和商业落地之间仍面临挑战,需更聚焦于高价值应用场景和技术突破。

来源:TechCrunch AI

02:24

乌克兰黑客声称对攻击俄罗斯互联网服务提供商负责,该攻击摧毁了服务器并导致互联网中断

俄罗斯互联网服务提供商 Nodex 遭受乌克兰黑客组织攻击,导致其网络系统被完全破坏,服务器数据被擦除,客户互联网连接中断。此次事件凸显了网络安全在 AI 基础设施中的重要性,尤其是在分布式系统、数据备份和恢复等关键领域。AI 技术如联邦学习和强化学习可用于增强网络防御能力,而多模态模型和预训练模型在威胁检测和响应中具有潜力。未来,AI 驱动的网络安全解决方案将成为保护关键基础设施的重要趋势。

来源:TechCrunch AI

1月 8日
3 条新闻
23:31

微软在用户投诉图像质量下降后回退其必应图像生成模型

微软在 Bing Image Creator 中升级了基于 OpenAI DALL-E 3 的 AI 图像生成模型(PR16),承诺提升生成速度与质量,但用户反馈图像质量显著下降,导致微软决定回滚至旧版本(PR13)。此次事件凸显了 AI 模型在真实场景中的评估挑战,内部基准测试与用户感知存在偏差。同时,这也反映了多模态生成模型在细节与真实性优化上的技术瓶颈,以及企业在模型迭代中平衡性能与用户体验的复杂性。

来源:TechCrunch AI

22:15

教育科技巨头PowerSchool表示黑客访问了学生和教师的个人数据

教育科技巨头 PowerSchool 遭遇网络安全事件,黑客通过其客户支持门户 PowerSource 入侵学校信息系统 PowerSchool SIS,获取了 K-12 学生和教师的个人数据。事件暴露了 AI 在教育数据管理中的安全挑战,尤其是敏感数据的保护与隐私合规问题。尽管 PowerSchool 声称已控制事件并支付赎金以防止数据泄露,但此次事件凸显了 AI 系统在数据安全、访问控制和伦理规范方面的关键漏洞,亟需加强联邦学习、数据加密等技术的应用,以应对日益复杂的网络威胁。

来源:TechCrunch AI

17:54

联合国航空机构确认黑客入侵招聘数据库获取数千条记录

联合国航空机构确认其招聘数据库遭黑客入侵,约4.2万条招聘申请数据泄露。此次事件凸显了数据安全在AI应用中的重要性,尤其是在涉及敏感信息的场景下。AI技术在网络安全领域的应用,如异常检测和威胁预测,将成为未来发展的关键方向。同时,这也强调了在AI系统设计和部署中,数据隐私保护和访问控制的重要性。

来源:TechCrunch AI

1月 6日
1 条新闻
04:48

对Adrian Dittman/Elon Musk阴谋论者的坏消息

新闻揭示了 AI 在身份验证和社交媒体分析中的应用潜力。通过语音识别和图像分析技术,结合社交媒体行为数据,AI 能够辅助验证用户身份的真实性。这一案例展示了 AI 在跨模态数据分析(如语音、图像和行为模式)中的实际应用,突显了其在网络安全和数字身份管理领域的重要性。未来,随着多模态 AI 技术的进一步发展,类似应用将更加精准和高效。

来源:TechCrunch AI

1月 4日
1 条新闻
00:00

探秘 Bench 的疯狂跌落与最后一刻的复兴:这家风投支持的会计初创公司在节假日期间分崩离析

加拿大会计初创公司 Bench 因过度依赖 AI 自动化工具而陷入困境,最终导致业务崩溃。该公司试图通过 AI 自动化会计任务(如费用分类)来降低成本,但技术执行存在缺陷,工具未能有效运行,导致客户流失和运营延迟。Bench 的案例凸显了 AI 在金融科技领域应用的技术挑战,包括模型可靠性、自动化与人工服务的平衡,以及商业落地中的执行风险。这一事件为 AI 驱动型企业的战略规划和实施提供了重要警示。

来源:TechCrunch AI

1月 3日
1 条新闻
00:00

Cloudflare的VPN应用在印度应用商店中被下架

印度政府近期对VPN应用实施严格监管,要求提供商保留用户数据五年,导致包括Cloudflare 1.1.1.1在内的多款VPN应用从应用商店下架。此举凸显了数据安全与隐私保护在AI应用中的重要性,尤其是在联邦学习和边缘计算等场景下,如何在合规与技术创新之间取得平衡成为关键挑战。未来,AI技术需进一步优化数据加密与匿名化处理,以应对全球日益严格的隐私法规。

来源:TechCrunch AI

1月 2日
4 条新闻
00:00

Apheris利用联邦计算重新思考生命科学中的AI数据瓶颈

Apheris 通过联邦计算技术解决生命科学领域 AI 数据瓶颈,确保数据在本地处理,仅集中聚合模型参数,保护患者隐私和 IP。其 Apheris Compute Gateway 已应用于 AI 驱动的药物发现,如蛋白质复合物预测。公司近期完成 825 万美元 A 轮融资,总融资达 2080 万美元,将用于招聘生命科学背景的高级人才。Apheris 强调,只有解决数据所有者对 AI 数据使用的担忧,才能真正释放 AI 的潜力。

来源:TechCrunch AI

00:00

人们正在玩一种新的DOOM主题CAPTCHA

人们正在玩一种新的DOOM主题CAPTCHA

Vercel CEO 利用 AI 网站构建工具创新 CAPTCHA 验证方式,将经典游戏 DOOM 融入验证流程,用户需击杀至少三个怪物以证明非机器人身份。这一 AI 驱动的交互式 CAPTCHA 不仅提升了用户体验,还展示了 AI 在增强人机交互和反欺诈技术中的潜力。尽管技术并非全新,但其创意性和趣味性引发开发者社区热议,凸显了 AI 在优化传统验证机制中的应用价值。

来源:TechCrunch AI

00:00

百度25周年,李彦宏全员信:AI原生应用将迎来井喷式增长

百度25周年,李彦宏全员信:AI原生应用将迎来井喷式增长

1月2日,在百度成立25周年之际,创始人兼CEO李彦宏发表全员信,回顾了公司从创业到成为互联网巨头的历程,并展望未来。信中提到,百度将继续加大在AI领域的投入,预计2025年AI原生应用将井喷式增长,大模型赋能的应用已在各行业迅速普及。李彦宏强调技术创新是百度的核心竞争力,过去25年百度始终走在技术前沿,不断探索创新。

来源:TeachWeb

00:00

调查揭露儿童网红行业中的恋童癖现象

《AI 在儿童内容安全中的应用与挑战》:纽约时报调查揭露儿童网红行业中的潜在性侵风险,凸显 AI 在内容审核和用户行为分析中的重要性。Meta 已通过隐私设置和互动限制保护未成年账户,但 AI 需进一步优化以识别隐蔽的恶意行为。未来,结合多模态模型和联邦学习,AI 可在保护隐私的同时,提升对异常行为的检测能力,为儿童在线安全提供更全面的技术保障。

来源:TechCrunch AI

1月 1日
2 条新闻
00:00

硅谷在2024年抑制了人工智能末日运动

2024 年,生成式 AI 的商业化浪潮盖过了对 AI 潜在风险的担忧。尽管 2023 年 Elon Musk 等科技领袖呼吁暂停 AI 开发,强调其可能导致人类灭绝的风险,但以 a16z 创始人 Marc Andreessen 为代表的乐观派主张加速 AI 发展,认为 AI 将拯救世界而非毁灭它。Andreessen 提出“快速行动,打破常规”的策略,主张减少监管以促进 AI 创新,确保美国在 AI 领域的竞争力。然而,这种技术乐观主义在收入不平等、疫情和住房危机的背景下引发争议。与此同时,OpenAI 内部对 AGI(人工通用智能)的担忧导致 Sam Altman 被解雇,突显了 AI 发展中的伦理与安全挑战。尽管 2023 年 AI 安全成为主流话题,2024 年科技行业更倾向于推动 AI 的商业化落地,而非聚焦于安全与监管。

来源:TechCrunch AI

00:00

OpenAI 未能在2025年前提供承诺的退出工具

OpenAI 原计划于 2025 年推出 Media Manager 工具,旨在通过机器学习技术帮助创作者管理其作品在 AI 训练数据中的使用权限。该工具承诺识别并尊重文本、图像、音频和视频的版权,以应对日益严峻的知识产权争议。然而,由于内部优先级调整,开发进展停滞,未能如期发布。当前,OpenAI 面临多起版权诉讼,涉及艺术家、作家和媒体机构,凸显了 AI 模型在训练数据使用上的法律与伦理挑战。尽管 OpenAI 提供了临时退出机制,但创作者普遍认为这些措施不够完善。Media Manager 的延迟发布反映了 AI 行业在数据合规性和创作者权益保护方面的技术与管理难题。

来源:TechCrunch AI