<?xml version="1.0" encoding="utf-8" standalone="yes"?>
<rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom" xmlns:content="http://purl.org/rss/1.0/modules/content/">
  <channel>
    <title>zhaoyli&#39;s Blog</title>
    <link>https://zhaoylee.github.io/Blogs/</link>
    <description>Recent content on zhaoyli&#39;s Blog</description>
    <generator>Hugo</generator>
    <language>zh-cn</language>
    <copyright>[©2024 zhaoyli&amp;rsquo;s Blog] https://zhaoylee.github.io/)</copyright>
    <lastBuildDate>Mon, 16 Mar 2026 01:45:51 +0000</lastBuildDate>
    <atom:link href="https://zhaoylee.github.io/Blogs/index.xml" rel="self" type="application/rss+xml" />
    <item>
      <title>OCM3D: Object-Centric Monocular 3D Object Detection</title>
      <link>https://zhaoylee.github.io/Blogs/posts/plug_and_play/ocm3d--object-centric-monocular-3d-object-detection/</link>
      <pubDate>Mon, 16 Mar 2026 09:12:18 +0800</pubDate>
      <guid>https://zhaoylee.github.io/Blogs/posts/plug_and_play/ocm3d--object-centric-monocular-3d-object-detection/</guid>
      <description>&lt;hr&gt;
&lt;blockquote&gt;
&lt;p&gt;&lt;strong&gt;🏛️ 会议/期刊&lt;/strong&gt;：arxiv&lt;br&gt;
&lt;strong&gt;📅 发表年份&lt;/strong&gt;：2021&lt;br&gt;
&lt;strong&gt;💻 开源代码&lt;/strong&gt;：&lt;a href=&#34;https://github.com/mrsempress/OBMO_GUPNet/blob/main/tools/offline_OBMO.py&#34;&gt;OBMO_GUPNet&lt;/a&gt;&lt;br&gt;
&lt;strong&gt;📄 论文题目&lt;/strong&gt;：&lt;a href=&#34;https://arxiv.org/pdf/2104.06041&#34;&gt;OCM3D: Object-Centric Monocular 3D Object Detection&lt;/a&gt;&lt;/p&gt;
&lt;/blockquote&gt;
&lt;hr&gt;
&lt;h3 id=&#34;1-文献背景研究目的与核心问题&#34;&gt;1. 文献背景、研究目的与核心问题&lt;/h3&gt;
&lt;ul&gt;
&lt;li&gt;
&lt;p&gt;&lt;strong&gt;研究背景&lt;/strong&gt;：单目 3D 目标检测（Monocular 3D Object Detection）是一个高度病态（ill-posed）的问题。主流方法通常依赖纯图像或将其转化为伪激光雷达（Pseudo-LiDAR）点云。然而，前者难以捕捉像素间的 3D 空间几何关系，后者则受困于单目深度估计带来的巨大点云噪声。&lt;/p&gt;</description>
    </item>
    <item>
      <title>LR3D: Improving Distant 3D Object Detection Using 2D Box Supervision</title>
      <link>https://zhaoylee.github.io/Blogs/posts/plug_and_play/lr3d--improving-distant-3d-object-detection-using-2d-box-supervision/</link>
      <pubDate>Sun, 15 Mar 2026 22:23:00 +0800</pubDate>
      <guid>https://zhaoylee.github.io/Blogs/posts/plug_and_play/lr3d--improving-distant-3d-object-detection-using-2d-box-supervision/</guid>
      <description>&lt;hr&gt;
&lt;blockquote&gt;
&lt;p&gt;&lt;strong&gt;🏛️ 会议/期刊&lt;/strong&gt;：CVPR&lt;br&gt;
&lt;strong&gt;📅 发表年份&lt;/strong&gt;：2024&lt;br&gt;
&lt;strong&gt;💻 开源代码&lt;/strong&gt;：&lt;a href=&#34;%E5%A1%AB%E5%86%99%E4%BD%A0%E7%9A%84URL&#34;&gt;无&lt;/a&gt;&lt;br&gt;
&lt;strong&gt;📄 论文题目&lt;/strong&gt;：&lt;a href=&#34;https://openaccess.thecvf.com/content/CVPR2024/papers/Yang_Improving_Distant_3D_Object_Detection_Using_2D_Box_Supervision_CVPR_2024_paper.pdf&#34;&gt;Improving Distant 3D Object Detection Using 2D Box Supervision&lt;/a&gt;&lt;/p&gt;
&lt;/blockquote&gt;
&lt;hr&gt;
&lt;p&gt;这篇由 NVIDIA 等机构的研究人员发表在 CVPR 2024 的重磅论文 &lt;strong&gt;《Improving Distant 3D Object Detection Using 2D Box Supervision》(简称 LR3D)&lt;/strong&gt;，切入了一个目前高阶自动驾驶极其头疼的落地难题：&lt;strong&gt;远距离感知（Long-Range Detection）&lt;/strong&gt;。它展示了如何用最廉价的标注，榨取单目视觉在远距离上的极限潜力。&lt;/p&gt;</description>
    </item>
    <item>
      <title>StreamPETR-QAF2D：Enhancing 3D Object Detection with 2D Detection-Guided Query Anchors</title>
      <link>https://zhaoylee.github.io/Blogs/posts/plug_and_play/streampetr-qaf2d--enhancing-3d-object-detection-with-2d-detection-guided-query-anchors/</link>
      <pubDate>Sun, 15 Mar 2026 21:59:16 +0800</pubDate>
      <guid>https://zhaoylee.github.io/Blogs/posts/plug_and_play/streampetr-qaf2d--enhancing-3d-object-detection-with-2d-detection-guided-query-anchors/</guid>
      <description>&lt;hr&gt;
&lt;blockquote&gt;
&lt;p&gt;&lt;strong&gt;🏛️ 会议/期刊&lt;/strong&gt;：CVPR&lt;br&gt;
&lt;strong&gt;📅 发表年份&lt;/strong&gt;：2024&lt;br&gt;
&lt;strong&gt;💻 开源代码&lt;/strong&gt;：&lt;a href=&#34;https://github.com/nullmax-vision/QAF2D&#34;&gt;nullmax-vision/QAF2D-CVPR 2024&lt;/a&gt;&lt;br&gt;
&lt;strong&gt;📄 论文题目&lt;/strong&gt;：&lt;a href=&#34;https://arxiv.org/pdf/2403.06093&#34;&gt;Enhancing 3D Object Detection with 2D Detection-Guided Query Anchors&lt;/a&gt;&lt;/p&gt;
&lt;/blockquote&gt;
&lt;hr&gt;
&lt;p&gt;这篇发表于 CVPR 2024 的论文 &lt;strong&gt;《Enhancing 3D Object Detection with 2D Detection-Guided Query Anchors》(简称 QAF2D)&lt;/strong&gt; 极具工程实用价值。它没有死磕 3D 空间中的特征提取瓶颈，而是打出了一套极其聪明的“降维组合拳”，巧妙地利用成熟的 2D 视觉技术来为 3D 检测器“引路”。&lt;/p&gt;</description>
    </item>
    <item>
      <title>OBMO: One Bounding Box Multiple Objects
for Monocular 3D Object Detection</title>
      <link>https://zhaoylee.github.io/Blogs/posts/plug_and_play/obmo--one-bounding-box-multiple-objects-for-monocular-3d-object-detection/</link>
      <pubDate>Sun, 15 Mar 2026 21:59:12 +0800</pubDate>
      <guid>https://zhaoylee.github.io/Blogs/posts/plug_and_play/obmo--one-bounding-box-multiple-objects-for-monocular-3d-object-detection/</guid>
      <description>&lt;hr&gt;
&lt;blockquote&gt;
&lt;p&gt;&lt;strong&gt;🏛️ 会议/期刊&lt;/strong&gt;：IEEE TIP&lt;br&gt;
&lt;strong&gt;📅 发表年份&lt;/strong&gt;：2023&lt;br&gt;
&lt;strong&gt;💻 开源代码&lt;/strong&gt;：&lt;a href=&#34;https://github.com/mrsempress/OBMO_patchnet&#34;&gt;mrsempress/OBMO_patchnet&lt;/a&gt;&lt;br&gt;
&lt;strong&gt;📄 论文题目&lt;/strong&gt;：&lt;a href=&#34;https://arxiv.org/pdf/2212.10049&#34;&gt;OBMO: One Bounding Box Multiple Objects for Monocular 3D Object Detection&lt;/a&gt;&lt;/p&gt;
&lt;/blockquote&gt;
&lt;hr&gt;
&lt;p&gt;这篇发表于 IEEE TIP (2023) 的经典论文 &lt;strong&gt;《OBMO: One Bounding Box Multiple Objects for Monocular 3D Object Detection》&lt;/strong&gt; 切入点非常犀利。它没有在复杂的网络主干上做文章，而是直击单目 3D 目标检测在“底层数学物理逻辑”上的痛点，提出了一种极其优雅的“即插即用（Plug-and-play）”训练策略。&lt;/p&gt;</description>
    </item>
    <item>
      <title>Open Vocabulary Monocular 3D Object Detection</title>
      <link>https://zhaoylee.github.io/Blogs/posts/open-vocabulary-based/open-vocabulary-monocular-3d-object-detection/</link>
      <pubDate>Sun, 15 Mar 2026 21:14:37 +0800</pubDate>
      <guid>https://zhaoylee.github.io/Blogs/posts/open-vocabulary-based/open-vocabulary-monocular-3d-object-detection/</guid>
      <description>&lt;hr&gt;
&lt;blockquote&gt;
&lt;p&gt;&lt;strong&gt;🏛️ 会议/期刊&lt;/strong&gt;：3DV&lt;br&gt;
&lt;strong&gt;📅 发表年份&lt;/strong&gt;：2026&lt;br&gt;
&lt;strong&gt;💻 开源代码&lt;/strong&gt;：&lt;a href=&#34;https://github.com/UVA-Computer-Vision-Lab/ovmono3d&#34;&gt;UVA-Computer-Vision-Lab/ovmono3d&lt;/a&gt;&lt;br&gt;
&lt;strong&gt;📄 论文题目&lt;/strong&gt;：&lt;a href=&#34;https://arxiv.org/pdf/2411.16833&#34;&gt;Open Vocabulary Monocular 3D Object Detection&lt;/a&gt;&lt;/p&gt;
&lt;/blockquote&gt;
&lt;hr&gt;
&lt;h3 id=&#34;一-背景研究目的与核心问题&#34;&gt;一、 背景、研究目的与核心问题&lt;/h3&gt;
&lt;ul&gt;
&lt;li&gt;
&lt;p&gt;&lt;strong&gt;研究背景：&lt;/strong&gt; 传统的单目 3D 目标检测（M3OD）模型都属于“闭集（Closed-set）”学习。这意味着模型只能检测训练集中预先定义好的那几种类别（例如 KITTI 数据集里的车、人、自行车）。但在真实的自动驾驶或机器人场景中，会遇到无数的长尾目标（如遗落的轮胎、奇形怪状的施工路障、甚至是一只突然窜出的动物）。&lt;/p&gt;</description>
    </item>
    <item>
      <title>MonoXiver： Monocular 3D Object Detection with Bounding Box Denoising in 3D by Perceiver</title>
      <link>https://zhaoylee.github.io/Blogs/posts/plug_and_play/monoxiver--monocular-3d-object-detection-with-bounding-box-denoising-in-3d-by-perceivermonocular-3d-object-detection-with-bounding-box-denoising-in-3d-by-perceiver/</link>
      <pubDate>Sun, 15 Mar 2026 21:14:36 +0800</pubDate>
      <guid>https://zhaoylee.github.io/Blogs/posts/plug_and_play/monoxiver--monocular-3d-object-detection-with-bounding-box-denoising-in-3d-by-perceivermonocular-3d-object-detection-with-bounding-box-denoising-in-3d-by-perceiver/</guid>
      <description>&lt;hr&gt;
&lt;blockquote&gt;
&lt;p&gt;&lt;strong&gt;🏛️ 会议/期刊&lt;/strong&gt;：ICCV&lt;br&gt;
&lt;strong&gt;📅 发表年份&lt;/strong&gt;：2023&lt;br&gt;
&lt;strong&gt;💻 开源代码&lt;/strong&gt;：&lt;a href=&#34;https://github.com/Xianpeng919/monoxiver&#34;&gt;Xianpeng919/monoxiver (ICCV&#39;23)&lt;/a&gt;&lt;br&gt;
&lt;strong&gt;📄 论文题目&lt;/strong&gt;：&lt;a href=&#34;https://openaccess.thecvf.com/content/ICCV2023/papers/Liu_Monocular_3D_Object_Detection_with_Bounding_Box_Denoising_in_3D_ICCV_2023_paper.pdf&#34;&gt;Monocular 3D Object Detection with Bounding Box Denoising in 3D by Perceiver&lt;/a&gt;&lt;/p&gt;
&lt;/blockquote&gt;
&lt;hr&gt;
&lt;p&gt;这篇发表于 ICCV 2023 的论文 &lt;strong&gt;《Monocular 3D Object Detection with Bounding Box Denoising in 3D by Perceiver》(简称 MonoXiver)&lt;/strong&gt;，提供了一个非常经典且极具工程价值的“自上而下（Top-down）”纠错思路。它并没有试图发明一种全新的主干网络，而是设计了一个强大的“插件”，专门用来拯救那些定位不准的预测框。&lt;/p&gt;</description>
    </item>
    <item>
      <title>PLOT: Pseudo-Labeling via Object Tracking for Monocular 3D Object Detection</title>
      <link>https://zhaoylee.github.io/Blogs/posts/plug_and_play/plot---pseudo-labeling-via-object-tracking-for-monocular-3d-object-detection/</link>
      <pubDate>Sun, 15 Mar 2026 20:52:51 +0800</pubDate>
      <guid>https://zhaoylee.github.io/Blogs/posts/plug_and_play/plot---pseudo-labeling-via-object-tracking-for-monocular-3d-object-detection/</guid>
      <description>&lt;hr&gt;
&lt;blockquote&gt;
&lt;p&gt;&lt;strong&gt;🏛️ 会议/期刊&lt;/strong&gt;：ICLR&lt;br&gt;
&lt;strong&gt;📅 发表年份&lt;/strong&gt;：2026&lt;br&gt;
&lt;strong&gt;💻 开源代码&lt;/strong&gt;：&lt;a href=&#34;%E5%A1%AB%E5%86%99%E4%BD%A0%E7%9A%84URL&#34;&gt;无&lt;/a&gt;&lt;br&gt;
&lt;strong&gt;📄 论文题目&lt;/strong&gt;：&lt;a href=&#34;https://openreview.net/pdf?id=3knS4J9isg&#34;&gt;PLOT: Pseudo-Labeling via Object Tracking for Monocular 3D Object Detection&lt;/a&gt;&lt;/p&gt;
&lt;/blockquote&gt;
&lt;hr&gt;
&lt;h3 id=&#34;一-背景研究目的与核心问题&#34;&gt;一、 背景、研究目的与核心问题&lt;/h3&gt;
&lt;ul&gt;
&lt;li&gt;
&lt;p&gt;&lt;strong&gt;研究背景：&lt;/strong&gt; 单目 3D 目标检测模型极度“吃数据”。然而，人工标注 3D 边界框极其昂贵且耗时，导致目前带 3D 标签的数据集规模很小，严重限制了模型的泛化能力。&lt;/p&gt;</description>
    </item>
    <item>
      <title>Difficulty-Aware Label-Guided Denoising for Monocular 3D Object Detection</title>
      <link>https://zhaoylee.github.io/Blogs/posts/transformer-based/monodlgd--difficulty-aware-label-guided-denoising-for-monocular-3d-object-detection/</link>
      <pubDate>Sun, 15 Mar 2026 20:52:49 +0800</pubDate>
      <guid>https://zhaoylee.github.io/Blogs/posts/transformer-based/monodlgd--difficulty-aware-label-guided-denoising-for-monocular-3d-object-detection/</guid>
      <description>&lt;hr&gt;
&lt;blockquote&gt;
&lt;p&gt;&lt;strong&gt;🏛️ 会议/期刊&lt;/strong&gt;：AAAI &lt;br&gt;
&lt;strong&gt;📅 发表年份&lt;/strong&gt;：2026&lt;br&gt;
&lt;strong&gt;💻 开源代码&lt;/strong&gt;：&lt;a href=&#34;https://github.com/lsy010857/MonoDLGD&#34;&gt;MonoDLGD&lt;/a&gt;&lt;br&gt;
&lt;strong&gt;📄 论文题目&lt;/strong&gt;：&lt;a href=&#34;https://arxiv.org/pdf/2511.13195&#34;&gt;Difficulty-Aware Label-Guided Denoising for Monocular 3D Object Detection&lt;/a&gt;&lt;/p&gt;
&lt;/blockquote&gt;
&lt;hr&gt;
&lt;h3 id=&#34;一-背景研究目的与核心问题&#34;&gt;一、 背景、研究目的与核心问题&lt;/h3&gt;
&lt;ul&gt;
&lt;li&gt;
&lt;p&gt;&lt;strong&gt;研究背景：&lt;/strong&gt; 在基于 Transformer 的单目 3D 目标检测中，通过向真实标签注入噪声并让模型去重构（即查询去噪 Query Denoising），能有效加速模型收敛并提升几何感知能力。&lt;/p&gt;</description>
    </item>
    <item>
      <title>Mono3DV: Monocular 3D Object Detection with 3D-Aware Bipartite Matching and Variational Query DeNoising</title>
      <link>https://zhaoylee.github.io/Blogs/posts/transformer-based/mono3dv--monocular-3d-object-detection-with-3d-aware-bipartite-matching-and-variational-query-denoising/</link>
      <pubDate>Sun, 15 Mar 2026 20:36:42 +0800</pubDate>
      <guid>https://zhaoylee.github.io/Blogs/posts/transformer-based/mono3dv--monocular-3d-object-detection-with-3d-aware-bipartite-matching-and-variational-query-denoising/</guid>
      <description>&lt;hr&gt;
&lt;blockquote&gt;
&lt;p&gt;&lt;strong&gt;🏛️ 会议/期刊&lt;/strong&gt;：CVPR / ICCV / ECCV&lt;br&gt;
&lt;strong&gt;📅 发表年份&lt;/strong&gt;：2026&lt;br&gt;
&lt;strong&gt;💻 开源代码&lt;/strong&gt;： 无&lt;br&gt;
&lt;strong&gt;📄 论文题目&lt;/strong&gt;：&lt;a href=&#34;https://arxiv.org/pdf/2601.01036&#34;&gt;Mono3DV: Monocular 3D Object Detection with 3D-Aware Bipartite Matching and Variational Query DeNoising&lt;/a&gt;&lt;/p&gt;
&lt;/blockquote&gt;
&lt;hr&gt;
&lt;h3 id=&#34;一-背景研究目的与核心问题&#34;&gt;一、 背景、研究目的与核心问题&lt;/h3&gt;
&lt;ul&gt;
&lt;li&gt;
&lt;p&gt;&lt;strong&gt;研究背景：&lt;/strong&gt; 近年来，基于 Transformer（特别是 DETR 架构）的模型在 2D 目标检测中取得了巨大成功，并顺理成章地被引入到单目 3D 目标检测（M3OD）领域。这类模型依赖“查询（Query）”机制和“二分图匹配（Bipartite Matching）”来端到端地输出检测结果，无需繁琐的非极大值抑制（NMS）。&lt;/p&gt;</description>
    </item>
    <item>
      <title>Object-Scene-Camera Decomposition and Recomposition for Data-Efficient Monocular 3D Object Detection</title>
      <link>https://zhaoylee.github.io/Blogs/posts/plug_and_play/dr-traversal-m3d--object-scene-camera-decomposition-and-recomposition-for-data-efficient-monocular-3d-object-detection/</link>
      <pubDate>Sun, 15 Mar 2026 19:59:15 +0800</pubDate>
      <guid>https://zhaoylee.github.io/Blogs/posts/plug_and_play/dr-traversal-m3d--object-scene-camera-decomposition-and-recomposition-for-data-efficient-monocular-3d-object-detection/</guid>
      <description>&lt;hr&gt;
&lt;blockquote&gt;
&lt;p&gt;&lt;strong&gt;🏛️ 会议/期刊&lt;/strong&gt;：IJCV&lt;br&gt;
&lt;strong&gt;📅 发表年份&lt;/strong&gt;：2026&lt;br&gt;
&lt;strong&gt;💻 开源代码&lt;/strong&gt;：&lt;a href=&#34;https://github.com/kwong292521/DR-Traversal-M3D&#34;&gt;GitHub 链接&lt;/a&gt;&lt;br&gt;
&lt;strong&gt;📄 论文题目&lt;/strong&gt;：&lt;a href=&#34;https://arxiv.org/pdf/2602.20627&#34;&gt;Object-Scene-Camera Decomposition and Recomposition for Data-Efficient Monocular 3D Object Detection&lt;/a&gt;&lt;/p&gt;
&lt;/blockquote&gt;
&lt;hr&gt;
&lt;h3 id=&#34;一-背景研究目的与核心问题&#34;&gt;一、 背景、研究目的与核心问题&lt;/h3&gt;
&lt;ul&gt;
&lt;li&gt;
&lt;p&gt;&lt;strong&gt;研究背景：&lt;/strong&gt; 单目 3D 目标检测本身是一个病态（ill-posed）问题，由于缺乏深度信息，模型极度依赖海量、多样化的训练数据来学习鲁棒的特征。&lt;/p&gt;</description>
    </item>
    <item>
      <title>SpikeSMOKE: Spiking Neural Networks for Monocular 3D Object Detection with Cross-Scale Gated Coding</title>
      <link>https://zhaoylee.github.io/Blogs/posts/centernet-based/spikesmoke--spiking-neural-networks-for-monocular-3d-object-detection-with-cross-scale-gated-coding/</link>
      <pubDate>Sun, 15 Mar 2026 19:59:10 +0800</pubDate>
      <guid>https://zhaoylee.github.io/Blogs/posts/centernet-based/spikesmoke--spiking-neural-networks-for-monocular-3d-object-detection-with-cross-scale-gated-coding/</guid>
      <description>&lt;hr&gt;
&lt;blockquote&gt;
&lt;p&gt;&lt;strong&gt;🏛️ 会议/期刊&lt;/strong&gt;：CVPR / ICCV / ECCV&lt;br&gt;
&lt;strong&gt;📅 发表年份&lt;/strong&gt;：2026&lt;br&gt;
&lt;strong&gt;💻 开源代码&lt;/strong&gt;：&lt;a href=&#34;%E5%A1%AB%E5%86%99%E4%BD%A0%E7%9A%84URL&#34;&gt;无&lt;/a&gt;&lt;br&gt;
&lt;strong&gt;📄 论文题目&lt;/strong&gt;：&lt;a href=&#34;https://arxiv.org/pdf/2506.07737&#34;&gt;SpikeSMOKE: Spiking Neural Networks for Monocular 3D Object Detection with Cross-Scale Gated Coding&lt;/a&gt;&lt;/p&gt;
&lt;/blockquote&gt;
&lt;hr&gt;
&lt;h3 id=&#34;一-背景研究目的与核心问题&#34;&gt;一、 背景、研究目的与核心问题&lt;/h3&gt;
&lt;ul&gt;
&lt;li&gt;
&lt;p&gt;&lt;strong&gt;研究背景：&lt;/strong&gt; 在自动驾驶等领域，3D 目标检测是核心技术。其中，“单目 3D 目标检测”由于仅依赖单张图像，硬件成本极低，备受青睐。然而，传统基于人工神经网络（ANNs）的模型计算量大、能耗极高，给边缘计算设备的电池续航和散热带来了巨大压力。&lt;/p&gt;</description>
    </item>
    <item>
      <title>SPAN: Spatial-Projection Alignment for Monocular 3D Object Detection</title>
      <link>https://zhaoylee.github.io/Blogs/posts/plug_and_play/span--spatial-projection-alignment-for-monocular-3d-object-detection/</link>
      <pubDate>Sun, 15 Mar 2026 19:38:47 +0800</pubDate>
      <guid>https://zhaoylee.github.io/Blogs/posts/plug_and_play/span--spatial-projection-alignment-for-monocular-3d-object-detection/</guid>
      <description>&lt;hr&gt;
&lt;blockquote&gt;
&lt;p&gt;&lt;strong&gt;🏛️ 会议/期刊&lt;/strong&gt;：CVPR / ICCV / ECCV&lt;br&gt;
&lt;strong&gt;📅 发表年份&lt;/strong&gt;：2026&lt;br&gt;
&lt;strong&gt;💻 开源代码&lt;/strong&gt;：&lt;a href=&#34;https://github.com/WYFDUT/SPAN&#34;&gt;GitHub 链接&lt;/a&gt;&lt;br&gt;
&lt;strong&gt;📄 论文题目&lt;/strong&gt;：&lt;a href=&#34;https://arxiv.org/pdf/2511.06702&#34;&gt;SPAN: Spatial-Projection Alignment for Monocular 3D Object Detection&lt;/a&gt;&lt;/p&gt;
&lt;/blockquote&gt;
&lt;hr&gt;
&lt;h2 id=&#34;1-文献背景与研究动机&#34;&gt;1. 文献背景与研究动机&lt;/h2&gt;
&lt;h2 id=&#34;背景与现状&#34;&gt;背景与现状&lt;/h2&gt;
&lt;p&gt;单目3D目标检测（Monocular 3D Object Detection）是自动驾驶和机器人视觉中的核心任务，旨在仅通过单张RGB图像预测物体的3D边界框。&lt;/p&gt;</description>
    </item>
    <item>
      <title>DIGGING INTO OUTPUT REPRESENTATION FOR MONOCULAR 3D OBJECT DETECTION</title>
      <link>https://zhaoylee.github.io/Blogs/posts/plug_and_play/digging-into-output-representation-for-monocular-3d-object-detection/</link>
      <pubDate>Fri, 13 Mar 2026 15:27:43 +0800</pubDate>
      <guid>https://zhaoylee.github.io/Blogs/posts/plug_and_play/digging-into-output-representation-for-monocular-3d-object-detection/</guid>
      <description>&lt;hr&gt;
&lt;blockquote&gt;
&lt;p&gt;&lt;strong&gt;🏛️ 会议/期刊&lt;/strong&gt;：ICLR&lt;br&gt;
&lt;strong&gt;📅 发表年份&lt;/strong&gt;：2022&lt;br&gt;
&lt;strong&gt;💻 开源代码&lt;/strong&gt;：&lt;a href=&#34;https://github.com/Owen-Liuyuxuan/visualDet3D/releases/tag/1.1.1&#34;&gt;GitHub 链接&lt;/a&gt;&lt;br&gt;
&lt;strong&gt;📄 论文题目&lt;/strong&gt;：&lt;a href=&#34;https://openreview.net/pdf?id=mPlm356yMIP&#34;&gt;DIGGING INTO OUTPUT REPRESENTATION FOR MONOCULAR 3D OBJECT DETECTION&lt;/a&gt;&lt;/p&gt;
&lt;/blockquote&gt;
&lt;hr&gt;
&lt;h2 id=&#34;0-一句话总结-tldr&#34;&gt;0. 一句话总结 (TL;DR)&lt;/h2&gt;
&lt;p&gt;&lt;em&gt;(这篇论文用什么方法，解决了什么问题，达到了什么效果)&lt;/em&gt;&lt;/p&gt;</description>
    </item>
    <item>
      <title>MonoCT: Overcoming Monocular 3D Detection Domain Shift with Consistent Teacher Models</title>
      <link>https://zhaoylee.github.io/Blogs/posts/centernet-based/monoct-overcoming-monocular-3d-detection-domain-shift-with-consistent-teacher-models/</link>
      <pubDate>Thu, 12 Mar 2026 10:25:13 +0800</pubDate>
      <guid>https://zhaoylee.github.io/Blogs/posts/centernet-based/monoct-overcoming-monocular-3d-detection-domain-shift-with-consistent-teacher-models/</guid>
      <description>&lt;hr&gt;
&lt;blockquote&gt;
&lt;p&gt;&lt;strong&gt;🏛️ 会议/期刊&lt;/strong&gt;：ICRA&lt;br&gt;
&lt;strong&gt;📅 发表年份&lt;/strong&gt;：2025&lt;br&gt;
&lt;strong&gt;💻 开源代码&lt;/strong&gt;：&lt;a href=&#34;%E5%A1%AB%E5%86%99%E4%BD%A0%E7%9A%84URL&#34;&gt;GitHub 链接&lt;/a&gt;&lt;br&gt;
&lt;strong&gt;📄 论文题目&lt;/strong&gt;：&lt;a href=&#34;https://arxiv.org/abs/2503.13743&#34;&gt;MonoCT: Overcoming Monocular 3D Detection Domain Shift with Consistent Teacher Models&lt;/a&gt;&lt;/p&gt;
&lt;/blockquote&gt;
&lt;hr&gt;
&lt;h2 id=&#34;0-一句话总结-tldr&#34;&gt;0. 一句话总结 (TL;DR)&lt;/h2&gt;
&lt;p&gt;&lt;em&gt;(这篇论文用什么方法，解决了什么问题，达到了什么效果)&lt;/em&gt;&lt;br&gt;
MonoCT 提出了一种基于&lt;strong&gt;一致性教师模型（Consistent Teacher）的&lt;/strong&gt;半监督自适应框架，通过在目标域（Target Domain）引入伪标签一致性约束，有效解决了单目 3D 检测在不同数据集间迁移时的深度估计偏差问题。&lt;/p&gt;</description>
    </item>
    <item>
      <title>关于</title>
      <link>https://zhaoylee.github.io/Blogs/about/</link>
      <pubDate>Mon, 01 Jan 0001 00:00:00 +0000</pubDate>
      <guid>https://zhaoylee.github.io/Blogs/about/</guid>
      <description>about</description>
    </item>
  </channel>
</rss>
