科技资讯

微软Azure平台率先推出了Command R+,这是一种最先进的、为解决企业级工作负载而优化的RAG(Retrieval-Augmented Generation,检索增强生成)模型。Command R+是我们R系列大型语言模型(LLM)中最强大、可扩展的,旨在在现实世界的企业用例中表现卓越。该系列模型专注于在高效能和强准确性之间取得平衡,使企业能够从概念验证阶段过渡到使用AI进行生产。

Command R+继承了最近推出的Command R模型的特点,拥有128k-token的上下文窗口,并提供以下最佳功能:

  1. 先进的RAG技术,减少错误信息的生成;
  2. 覆盖10种关键语言的多语…

在当今信息泛滥的时代,准确获取信息变得尤为重要。2024年2月15日,微软研究人员宣布了一项创新技术——GraphRAG,这是一种可能彻底改变我们与大型语言模型互动方式的技术。GraphRAG增强了检索增强生成(RAG)技术,它是开发AI驱动问答系统的关键。通过将AI生成的知识图谱与私有数据集结合,GraphRAG能够提供更准确、更相关的回答,解决了以往AI系统在整合不同信息源时遇到的挑战。

现有RAG系统在处理跨领域或需要深度理解的复杂问题时,往往难以提供真正符合问题本质的答案。GraphRAG通过引入AI生成的知识图谱,能够关联更多信息,从而在回答中提供更加丰富和相关的上下文,使答案不仅…

波士顿动力公司在机器人行业中因其类人机器人Atlas而备受关注,然而近日该公司正式宣布将停止开发这款机器人。尽管目前类人机器人正受到大量资金的追捧,波士顿动力这一决定仍显得有些不寻常。但有观点认为,这次退役可能更多地象征着新的开始,而非结束。因为波士顿动力一直在商业化技术方面努力,而现代汽车集团的收购和新任CEO的加入更是加快了这一进程。

十年前,Atlas首次亮相时就被认为是当时最先进的类人机器人之一。它起初是作为软件大脑和神经系统的物理外壳而开发的。随着时间的推进,Atlas在运动能力上取得了显著进步,并始终是波士顿动力研究和宣传材料的一部分。然而,现在它的时代已经结束,一些技术,如液压…

大型语言模型(LLM)被广泛应用于智能助手、文本摘要、翻译和手机上的多模态任务等领域。然而,目前设备上部署LLM的方法存在推理速度慢的问题,导致用户体验不佳。为了提高设备GPU上LLM部署的效率,研究者们提出了四种优化技术:一是采用基于符号表达的方法来支持动态形状模型的推理;二是进行操作符优化和执行优先级设置,以提高推理速度,减少手机卡顿;三是引入一种称为M0E4的FP4量化方法,以降低反量化开销;四是基于子张量的技术,消除在LLM推理后拷贝KV缓存的需要。研究者们将这些方法应用在他们开发的移动推理引擎Transformer-Lite中,该引擎兼容高通和MTK处理器。通过使用不同架构和参数范围…

筷子科技Kuaizi.ai,一家专注于通过人工智能技术提升企业营销内容生产和管理效率的AIGC视频应用平台,近日宣布完成了近5000万元人民币的B1轮融资。本轮融资由多家知名投资机构共同参与,包括金沙江创投、海珠城发集团、明辉懿德和海南比芯,而非凡资本则作为财务顾问为此次交易提供专业服务。

筷子科技致力于解决企业在内容营销领域中的效率和转化问题,通过AI技术的应用,该公司旨在提高内容生产效率,并利用数据分析和智能推荐算法提升营销内容的转化率。筷子科技目前提供两种产品:一种是面向各类品牌的AI应用产品,涵盖从编导到投放的全流程协同工作,另一种则是为集团型品牌提供智能内容代运营服务。2023年,…

OpenAI近日宣布其首家亚洲办公室在日本东京成立,并推出了专为日语优化的GPT-4定制模型。这一举措标志着OpenAI在全球运营扩展中对亚洲市场的重视。OpenAI致力于与日本政府、本地企业和研究机构合作,共同开发符合日本独特需求的安全AI工具,以期探索新的机会。选择东京作为其在亚洲的首个办公室,是因为该城市在技术领域的全球领导地位、服务文化以及一个热衷于创新的社区。

OpenAI的CEO Sam Altman表示,日本有着丰富的人与技术结合的历史,他们相信AI将通过赋予人们更多创造力和生产力来加速工作。为了更好地融入当地社区并推动OpenAI在日本的业务,Tadao Nagasaki被任…

周鸿祎AI 公开课的第二讲重点关注的是落地层面,这块是他本人非常擅长同时也是360正在实践的事。 本次分享的核心内容有:

AI认知与信仰:企业要拥抱AI,首先需要建立对AI的基本认知和信仰,这包括相信大模型的智能性、AGI(通用人工智能)的加速到来、大模型作为工业革命的潜力、大模型对产品和业务的重塑能力、以及不拥抱AI可能导致的公司和员工的淘汰。

AI产业发展的趋势:周鸿祎提出了2024年AI产业发展的十六个趋势,包括开源大模型的爆发、AGI竞争的关键在于云端超级大模型、大模型的小型化和多模态能力、AIGC功能的突破性增长、ToC应用的涌现、知识工程的重要性、AI Agent的潜能、人形机…

Infini-attention是一种新型的注意力机制,它通过引入压缩记忆的方式优化了传统的注意力机制。这种压缩记忆的特点在于,它能够通过调整参数来存储和回忆信息,而不是随着输入序列的增长而增加内存需求。此外,Infini-attention还巧妙地将局部注意力与长期线性注意力结合在单个Transformer块内,进一步提升了模型的性能。

为了验证Infini-attention的有效性,研究者们在一系列长上下文语言建模任务上进行了测试,包括1M序列长度的passkey上下文块检索任务和500K长度的书籍摘要任务。这些实验使用了不同规模的大型语言模型(LLMs),具体为1B和8B两种。实验结…

北大团队与兔展合作开发的Open Sora项目在视频生成技术上取得了重大突破,该项目支持生成高分辨率且时长超过10秒的视频,并且这些视频的内容还能通过文本进行控制。Open Sora项目在开源社区中也获得了极高的关注,已经得到了6.6k的星标认可。最新版本的Open-Sora-Plan v1.0.0不仅能够生成高清视频,还实现了对华为昇腾910b AI芯片的推理支持,并计划未来能够支持国产算力进行训练。在技术层面,项目采用了CausalVideoVAE模型架构,这一架构通过联合训练图像和视频数据,并引入了创新的初始化方法,大幅提升了模型的性能。此外,在训练过程中,项目采用了多阶段级联训练方法,…

Open Sora团队最近推出了一个新的视频生成项目,名为MagicTime。该项目专注于创造变形时光延续视频,这类视频能够展示如花朵绽放、冰块融化等自然过程。MagicTime的特点是它能够学习和应用现实世界的物理规律,以生成更加真实和生动的视频效果。

为了实现这一目标,团队首先开发了MagicAdapter技术。这项技术通过分别对空间和时间进行处理和训练,有效地从变形视频中提取了大量的物理知识。此外,MagicAdapter还使得预训练的T2V模型得以应用,从而能够生成这类具有物理规律的视频。

除了MagicAdapter,项目还引入了一种动态帧提取策略。这种策略特别适合用于变形时光延…