8月25日,腾讯会议更新,正式上线“AI纪要”功能并打通腾讯元宝。用户开启该功能后,“AI纪要”将会作为“会议秘书”实时生成会议纪要,并每隔2分钟主动同步,会议结束后还能跳转到元宝进行提问,追溯会议关键信息,显著提升会议效率。
近日,夸克正式发布健康大模型技术报告《QuarkMed Technical Report》,首次公开了“主任医师级”能力的技术实现细节。
南洋理工大学研究团队开发的Life2vec系统能够通过分析个人生活数据预测未来人生轨迹,在收入和职业预测上达到78-85%准确率。该系统使用丹麦600万人的真实数据,采用类似GPT的AI技术,揭示了教育投资、社交网络、地理位置等因素对人生发展的深层影响规律,为政策制定和个人规划提供科学依据。
中国科学家成功将扩散模型应用于语言生成,开发出名为LLaDA的创新AI系统。与ChatGPT等传统按序生成的模型不同,LLaDA采用"填空"方式工作,能同时考虑文本前后信息。在80亿参数规模下,LLaDA在多项测试中表现优异,特别是在逆向推理任务上超越GPT-4o,为AI语言模型发展开辟了全新技术路径。
T-Tech团队通过系统性研究发现,各种看似不同的AI直接对齐算法实际效果相近。研究统一了ORPO、ASFT等算法框架,发现只需5-10%训练数据即可达到近最佳性能,并揭示比较式学习通常优于独立评价式学习。该发现简化了AI训练理解,为降低成本、提升普及性提供重要指导。
腾讯WeChat AI、香港科技大学与约翰·霍普金斯大学联合开发PHYSICO测试,通过自然语言和抽象网格图案的双重考验,首次定量证实AI模型存在"随机鹦鹉"现象。研究发现,先进AI模型在文字描述物理概念时准确率达95%,但在理解抽象图案时仅25-45%,远低于人类90%水平,揭示了AI缺乏真正概念理解的根本局限。
香港大学与字节跳动联合开发了名为Goku的AI模型,能够同时生成高质量图片和视频。该模型采用修正流技术和统一训练架构,使用1.6亿张图片和3600万段视频训练,在多项评测中达到业界领先水平,在VBench视频测试中获得84.85分,GenEval图片测试中达到0.76分,展现了AI视觉生成技术向通用化发展的新趋势。
印尼就业平台Pintarnya宣布完成1670万美元A轮融资,由Square Peg领投。该平台成立于2022年,专注服务蓝领和非正规就业者,提供求职匹配和金融服务。目前拥有超过1000万求职用户和4万家雇主,年收入增长近五倍,预计年底实现盈亏平衡。新资金将用于加强平台技术和扩大金融服务。
YouTube Music庆祝十周年,推出多项新功能与Spotify竞争。新增"品味匹配"播放列表功能,可合并多用户的音乐偏好,类似Spotify Blend。应用还将通知用户即将发布的音乐、周边和演出信息,并与Bandsintown合作帮助粉丝发现演唱会。此外,用户可在专辑和播放列表上评论,获得忠诚度徽章。YouTube Music目前拥有超过3亿首曲目和40亿个用户生成播放列表,订阅用户已超过1.25亿。
自2022年ChatGPT发布以来,AI已快速融入日常生活。本文为初学者提供ChatGPT使用基础指南,包括设置账户、基本操作和实用技巧。ChatGPT可回答问题、总结文本、创建内容和翻译语言,但需注意其可能出现错误和偏见。使用时应保持平衡态度,结合其他搜索工具,并始终核实信息准确性。文章提供了建议咨询和数据分析等实际应用示例。
Eight Sleep公司推出AI驱动的智能床垫,通过持续生物识别追踪收集心率、体温、睡眠阶段等数据,构建用户数字孪生模型,实时优化睡眠质量。除床垫外,智能家居领域还涌现出AI空气质量监测、自动烹饪系统、智能安防等产品。这些技术将个人自动化提升到新高度,投资者看好其普及前景。
Meta与谷歌云签署价值100亿美元的AI云托管协议,这是Meta总投资超过1000亿美元AI计划的一部分。该协议持续至2031年,体现了两家科技巨头的长期合作关系。此举反映了大型企业在"自建vs外购"策略上的考量,同时帮助谷歌在云AI市场与AWS等竞争对手抗衡。谷歌云提供多样化服务包括Vertex AI、BigQuery等,协议宣布后谷歌收入增长32%。
MIT科学家首次揭示失语症患者大脑重新学习语言的神经机制。研究发现,康复过程中大脑经历"重新布线",健康神经元建立新连接,右脑临时接管语言功能,最终形成替代神经通路。个体差异源于大脑结构、年龄、基因和损伤位置的不同。研究为开发个性化脑刺激、多感官训练、虚拟现实康复等新治疗方法提供科学依据,有望显著提高失语症治疗效果。
中国人民大学团队开发出SurveyX自动化学术综述生成系统,通过创新的关键词扩展算法、AttributeTree文献预处理方法和大纲优化技术,能够自动搜集文献并生成高质量学术综述。实验显示其性能接近人类专家水平,在引用精确度上甚至略有超越,为应对学术文献爆炸式增长提供了有效解决方案。
这项由俄罗斯AIRI研究所等多家机构联合完成的研究,首次系统揭示了LoRA技术在AI知识注入中的潜在风险。通过对Llama-3.1模型的大规模实验,研究团队发现AI在学习新知识时存在明显的"安全阈值",超过500个新事实后性能显著下降。更重要的是,他们发现释义增强策略能有效缓解这些问题,为AI安全知识更新提供了重要指导。
由于缺少具体论文地址,无法生成对应的学术研究简介。请提供论文链接或详细信息后,我将为您生成一篇完整的专业学术解读文章。
MIT研究团队开发的调制掺杂技术首次在硬件层面解决了AI芯片的"灾难性遗忘"难题。该技术通过在忆阻器中加入特殊掺杂原子,创造双层记忆系统,让AI芯片能像人脑一样持续学习而不遗忘旧技能。测试显示,该技术让AI对原任务的准确率保持在85%以上,同时减少70%的训练能耗。这项发表于《自然电子学》的研究将为智能手机、自动驾驶汽车等设备带来革命性改进,预计三到五年内实现商业化应用。
北京大学研究团队创建了首个能够同时测试人类、仿人机器人和传统机器人工具使用能力的对比平台ManiSkill-HAB。通过六个日常工具使用任务的测试,研究发现机器人在学习效率和适应性方面仍远落后于人类。该研究开发的基于观察学习的新方法显著提高了机器人的学习效率,为未来智能机器人发展提供了重要基准和方向。