标签:性能提升

用AI自动设计智能体,数学提分25.9%,远超手工设计

摘要:智能体系统的自动化设计(ADAS)是一个新兴的研究领域,致力于通过自动化方法设计出性能更优的智能体系统。本文介绍了ADAS算法的三个关键组成部分:搜...

Mamba该如何解决「伪影」问题?Mamba®:只需几个寄存器即可成为MVP!

本文介绍了一种新型的视觉模型——Mamba®,它在处理图像分类和语义分割任务上展现出了卓越的性能。Mamba®模型基于视觉Mamba架构,通过引入寄存器(register tok...

ECCV 2024 Oral 满分论文!SpikeYOLO:高性能低能耗目标检测网络

摘要:本文介绍了一种新型的目标检测框架SpikeYOLO,以及一种新型的脉冲神经元——I-LIF神经元。SpikeYOLO框架结合了YOLOv8的宏观设计与Meta-SpikeFormer的微观...

一文搞懂 TorchDynamo 原理

TorchDynamo 工作原理和使用方法TorchDynamo 的核心作用是捕获 PyTorch 应用中的计算图,它通过 `torch.compile()` 或 `torch._dynamo.optimize()` 接口使用...

MICCAI 2024|即插即用!SelfReg-UNet:用于医学图像分割的自正则化 UNet

SelfReg-UNet针对UNet在医学图像分割中的两个主要问题:非相关特征学习和特征图中的冗余信息。编码器和解码器之间监督信号的不对称性导致编码器学习到非相关...

贾扬清点赞:3K star量的SGLang上新,加速Llama 405B推理秒杀vLLM、TensorRT-LLM

Meta公司最新开源的405B模型(Llama 3.1 405B)在性能上达到了新的高度,但同时也因其庞大的模型参数量带来了推理速度的挑战。为了解决这一问题,LMSYS Org团...

首个超越GPT4o级开源模型!Llama 3.1泄密:4050亿参数,下载链接、模型卡都有了

Llama 3.1版本模型的泄露在Reddit上引起了广泛关注。这个版本不仅包括基础模型,还有8B、70B和405B参数的基准测试结果。在与OpenAI GPT-4o和Llama 3 8B/70B的...

谷歌「诚意之作」,开源9B、27B版Gemma2,主打高效、经济!

谷歌近期推出了Gemma 2,这是其轻量级SOTA开放模型系列的新成员,旨在为每个人提供构建AI的工具。Gemma 2提供了90亿和270亿参数的两个版本,相较于第一代,在...

谷歌开源Gemma-2:参数小,同类性能最佳之一

谷歌在官网宣布开源其最新的大型语言模型Gemma 2,专为研究和开发人员设计。该模型有两种参数规模:9B和27B,相较于上一代,性能显著提升,同时部署要求降低...

DiG:使用门控线性注意力机制的高效可扩展 Diffusion Transformer

本文介绍了一种新型的扩散模型——DiG(Diffusion Gated Linear Attention Transformers),由华中科技大学和字节跳动的研究团队共同开发。DiG模型通过引入门控...
12