1、Inflection-2.5用40%计算量实现近GPT-4性能
2、谷歌新API实现手机PC大模型端侧运行
3、OpenAI CTO被曝是罢免事件关键人物
4、印度政府批准1030亿卢比AI项目 要做大模型
5、美团、浙大提出视觉任务统一架构VisionLLAMA
6、阿里云成立物流智能联盟 专注大模型应用实践
7、Figure创始人称简历数量暴涨218%
1、Inflection-2.5用40%计算量实现近GPT-4性能
昨天,AI创企Inflection AI发布了最新AI大模型Inflection-2.5,并将其用在了自家聊天机器人产品Pi中。Inflection AI称该模型为“最好的个人AI”。
Inflection-2.5在基准测试中的性能与GPT-4接近,但训练计算量只有GPT-4的40%。
Inflection-2.5已经向所有Pi用户开放,用户可通过pi.ai、iOS、Android或新的桌面端应用程序使用该模型。
2、谷歌新API实现手机PC大模型端侧运行
昨天,谷歌正式发布了MediaPipe LLM Inference API,该API可以让开发人员更便捷地在手机、PC等设备上本地运行AI大模型。
谷歌对跨设备堆栈进行了重点优化,包括新的操作、量化、缓存和权重共享。谷歌称,MediaPipe已经支持了四种模型:Gemma、Phi 2、Falcon 和Stable LM,这些模型可以在网页、安卓、iOS设备上运行,谷歌还计划将这一功能扩展到更多平台上。
3、OpenAI CTO被曝是罢免事件关键人物
今天,据纽约时报报道,OpenAI罢免Sam Altman的更多细节浮出水面:OpenAI首席技术官Mira Murati去年曾向董事会提出了有关Altman管理的问题,包括她的担忧和质疑,随后Altman被短暂逐出公司。
4、印度政府批准1030亿卢比AI项目 要做大模型
据路透社报道,昨日印度政府批准了一项1030亿卢比(约合人民币89亿元)的AI项目投资,该项目包括开发计算基础设施和开发大模型。此外,这笔资金还将用于资助AI初创企业,以及为公共部门开发AI应用程序。
5、美团、浙大提出视觉任务统一架构VisionLLAMA
3月1日,来自美团、浙大的研发成员近日共同发布了一篇论文《VisionLLaMA:以视觉任务为主的LLaMA架构》。他们希望通过Meta开源LLaMA架构在视觉领域应用,实现语言和图像架构的统一。经过研究,他们发现VisionLLaMA在图像生成(包含Sora依赖的底层的DIT)和理解(分类、分割、检测、自监督)等多个主流任务上相较于原ViT类方法提升显著。论文显示,该研究在统一图像和语言架构方面的尝试,可以复用LLM社区在LLaMA上的训练(稳定且有效的scaling)、部署等一系列成果。
论文地址:https://arxiv.org/abs/2403.00522
代码地址:https://github.com/Meituan-AutoML/VisionLLaMA
6、阿里云成立物流智能联盟 专注大模型应用实践
昨日,阿里云宣布,物流行业内首个专注于大模型应用研究与实践的联盟“物流智能联盟”在杭州成立,旨在加速大模型在物流领域落地,用AI助力物流行业增效降本和业务创新。
据了解,该联盟由阿里云、菜鸟、高德地图、中远海运、东航物流、圆通速递、申通快递、中通快递、德邦快递、G7易流、地上铁、浙江大学智能交通研究所等在2024数智物流峰会上共同成立。
7、Figure创始人称简历数量暴涨218%
昨日,Figure创始人Brett Adcock在X上发文称,公司收到的职位申请数量在过去的两个月里同比增长了218%。