zip

ICCV2023 Paper Summary: Efficient and Scalable Vision

  • 2024-04-30
  • 242.21MB
  • Points it Requires : 1

ICCV2023 Paper Summary: Efficient and Scalable Vision —————————————————— Rethinking Vision Transformers for MobileNet Size and Speed ​​DELFlow: Dense Efficient Learning of Scene Flow for Large-Scale Point Clouds DELFlow: Dense and Efficient Learning of Scene Flow for Large-Scale Point Clouds Eventful Transformers: Leveraging Temporal Redundancy in Vision Transformers Inherent Redundancy in Spiking Neural Networks Prune Spatio-Temporal Tokens by Semantic-Aware Temporal Accumulation Differentiable Transportation Pruning Jumping through Local Minima: Quantization in the Loss Landscape of Vision Transformers A2Q: Accumulator-Aware Quantization with Guaranteed Overflow Avoidance A2Q: Accumulator-Aware Quantization with Guaranteed Overflow Avoidance DenseShift: Towards Accurate and Efficient Low-Bit Power-of-Two Quantization PRANC: Pseudo RAndom Networks for Compacting Deep Models Reinforce Data, Multiply Impact: Improved Model Accuracy and Robustness with Dataset Reinforcement Estimator Meets Equilibrium Perspective: A Rectified Straight through Estimator for Binary Neural Networks Training I-ViT: Integer-Only Quantization for Efficient Vision Transformer Inference EMQ: Evolving Training-Free Proxies for Automated Mixed Precision Quantization EMQ: Evolving Training-Free Proxies for Automated Mixed Precision Quantization Local or Global: Selective Knowledge Assimilation for Federated Learning with Limited Labels DataDAM: Efficient Dataset Distillation with Attention Matching SAFE: Machine Unlearning with Shard Graphs ResQ: Residual Quantization for Video Perception Efficient Computation Sharing for Multi-Task Visual Scene Understanding DiffRate: Differentiable Compression Rate for Efficient Vision Transformers Bridging Cross-Task Protocol Inconsistency for Distillation in Dense Object Detection From Knowledge Distillation to Self-Knowledge Distillation: A Unified Approach with Normalized Loss and Customized Soft Labels Efficient 3D Semantic Segmentation with Superpoint Transformer Dataset Quantization Revisiting the Parameter Efficiency of Adapters from the Perspective of Precision Redundancy RepQ-ViT: Scale Reparameterization for Post-Training Quantization of Vision Transformers Semantically Structured Image Compression via Irregular Group-based Decoupling SeiT: Storage-Efficient Vision Training with Tokens using 1% of Pixel Storage SMMix: Self-Motivated Image Mixing for Vision Transformers SMMix: Self-driving Image Mixing for Visual Transformers Multi-Label Knowledge Distillation UGC:Unified GAN Compression for Efficient Image-to-Image Translation UGC: Unified GAN Compression for Efficient Image-to-Image Translation MotionDeltaCNN: Sparse CNN Inference of Frame Differences in Moving Camera Videos with Spherical Buffers and Padded Convolutions MotionDeltaCNN: Sparse CNN Inference of Frame Differences in Moving Camera Videos with Spherical Buffers and Padded Convolutions EfficientViT: Lightweight Multi-Scale Attention for High-Resolution Dense Prediction DREAM: Efficient Dataset Distillation by Representative Matching INSTA-BNN: Binary Neural Network with INSTAnce-Aware Threshold Deep Incubation: Training Large Models by Divide-and-Conquering Window-based Early-Exit Cascades for Uncertainty Estimation: When Deep Ensembles are more Efficient than Single Models Window-Based Early Dropout Cascades for Uncertainty Estimation: When Deep Ensembles are more Efficient than Single Models ORC: Network Group-based Knowledge Distillation using Online Role Change RMP-Loss: Regularizing Membrane Potential Distribution for Spiking Neural Networks SwiftFormer: Efficient Additive Attention for Transformer-based Real-Time Mobile Vision Applications Causal-DFQ: Causality Guided Data-Free Network Quantization Efficient Joint Optimization of Layer-Adaptive Weight Pruning in Deep Neural Networks Distribution Shift Matters for Knowledge Distillation with Webly Collected Images Distribution shift is important for knowledge distillation from images collected through the networkE2VPT: An Effective and Efficient Approach for Visual Prompt Tuning Bridging Vision and Language Encoders: Parameter-Efficient Tuning for Referring Image Segmentation SHACIRA: Scalable HAsh-Grid Compression for Implicit Neural Representations Q-Diffusion: Quantizing Diffusion Models Lossy and Lossless (L2) Post-Training Model Size Compression Robustifying Token Attention for Vision TransformersEfficient Additive Attention for Transformer-based Real-Time Mobile Vision Applications SwiftFormer: Efficient Additive Attention for Transformer-based Real-Time Mobile Vision Applications Causal-DFQ: Causality Guided Data-Free Network Quantization Efficient Joint Optimization of Layer-Adaptive Weight Pruning in Deep Neural Networks Distribution Shift Matters for Knowledge Distillation with Webly Collected Images E2VPT: An Effective and Efficient Approach for Visual Prompt Tuning Bridging Vision and Language Encoders: Parameter-Efficient Tuning for Referring Image Segmentation SHACIRA: Scalable HAsh-Grid Compression for Implicit Neural Representations SHACIRA: Scalable Hash Grid Compression for Implicit Neural RepresentationsQ-Diffusion: Quantizing Diffusion ModelsLossy and Lossless (L2) Post-Training Model Size CompressionRobustifying Token Attention for Vision TransformersEfficient Additive Attention for Transformer-based Real-Time Mobile Vision Applications SwiftFormer: Efficient Additive Attention for Transformer-based Real-Time Mobile Vision Applications Causal-DFQ: Causality Guided Data-Free Network Quantization Efficient Joint Optimization of Layer-Adaptive Weight Pruning in Deep Neural Networks Distribution Shift Matters for Knowledge Distillation with Webly Collected Images E2VPT: An Effective and Efficient Approach for Visual Prompt Tuning Bridging Vision and Language Encoders: Parameter-Efficient Tuning for Referring Image Segmentation SHACIRA: Scalable HAsh-Grid Compression for Implicit Neural Representations SHACIRA: Scalable Hash Grid Compression for Implicit Neural RepresentationsQ-Diffusion: Quantizing Diffusion ModelsLossy and Lossless (L2) Post-Training Model Size CompressionRobustifying Token Attention for Vision Transformers

unfold

You Might Like

Uploader
念慈菴
 

Recommended ContentMore

Popular Components

Just Take a LookMore

EEWorld
subscription
account

EEWorld
service
account

Automotive
development
circle

About Us Customer Service Contact Information Datasheet Sitemap LatestNews


Room 1530, 15th Floor, Building B, No.18 Zhongguancun Street, Haidian District, Beijing, Postal Code: 100190 China Telephone: 008610 8235 0740

Copyright © 2005-2024 EEWORLD.com.cn, Inc. All rights reserved 京ICP证060456号 京ICP备10001474号-1 电信业务审批[2006]字第258号函 京公网安备 11010802033920号
×