利用计算机视觉增强鱼类监测的公民科学

MIT News — Artificial Intelligence 论文

摘要

麻省理工学院和伍德韦尔气候研究中心的研究人员发表了一篇论文,探讨如何利用计算机视觉技术自动化鱼类监测,改进传统的公民科学方法,以助力河鲱鱼保护。

<p dir="ltr">每年春季,河鲱鱼种群从马萨诸塞州沿海水域迁徙,开始它们逆流而上进入淡水产卵地的年度旅程。过去几十年来,河鲱鱼数量急剧下降,其迁徙活动在该地区受到广泛监测,主要通过传统目视计数和志愿者项目开展。</p><p dir="ltr">监测鱼类活动并理解种群动态,对于指导保护工作和支持渔业管理至关重要。随着本月年度河鲱洄游的开始,研究人员和资源管理者再次面临尽可能准确计数和估算迁徙鱼类种群的挑战。</p><p dir="ltr">来自伍德韦尔气候研究中心、MIT Sea Grant、MIT计算机科学与人工智能实验室(CSAIL)、MIT林肯实验室以及Intuit的研究团队探索了一种新的监测方法,利用水下视频和计算机视觉技术来补充公民科学工作。研究人员——伍德韦尔气候研究中心的Zhongqi Chen和Linda Deegan、MIT Sea Grant的Robert Vincent和Kevin Bennett、MIT CSAIL的Sara Beery和Timm Haucke、Intuit的Austin Powell,以及MIT林肯实验室的Lydia Zuehsow——于今年二月在《Remote Sensing in Ecology and Conservation》期刊上发表了描述这项工作的论文。</p><p dir="ltr">这篇开放获取论文《<a href="https://zslpublications.onlinelibrary.wiley.com/doi/10.1002/rse2.70055">从快照到连续估算:利用计算机视觉增强鱼类监测的公民科学</a>》概述了计算机视觉和深度学习领域的最新进展——从目标检测与跟踪到物种分类——如何为自动化鱼类计数提供有前景的实境解决方案,提升效率和数据质量。</p><p dir="ltr">传统监测方法受时间、环境条件和劳动强度的限制。志愿者目视计数仅限于短暂的白天采样时段,无法捕捉夜间活动和短时迁徙高峰——几分钟内就有数百条鱼游过。虽然被动声学监测和成像声呐等技术在某些条件下推进了连续鱼类监测,但最有前景且低成本的方案——人工审阅水下视频——仍然劳动密集且耗时。随着对自动化视频处理解决方案需求的增长,本研究提出了一种可扩展、经济高效的深度学习系统,用于可靠的自动化鱼类监测。</p><p dir="ltr">研究团队构建了一个端到端流程——从野外水下摄像头到视频标注和模型训练——实现由计算机视觉驱动的自动化鱼类计数。视频采集自马萨诸塞州的三条河流:法尔茅斯的Coonamessett河、伊普斯威奇的Ipswich河,以及马什皮的Santuit河。</p><p dir="ltr">为准备训练数据集,团队选取了在光照、水体清晰度、鱼种和密度、一天中的时间及季节等方面存在差异的视频片段,以确保计算机视觉模型在各种真实场景中可靠运行。他们使用开源网络平台逐帧手动标注视频,用边界框跟踪鱼类运动。总共标注了1,435个视频片段,注释了59,850帧。</p><p dir="ltr">研究人员将计算机视觉计数与人工视频审阅、岸边目视计数以及被动集成转发器(PIT)标记数据进行了比较和验证。他们得出结论:基于多地点、多年份多样化数据训练的模型表现最佳,能够产生与常规估算一致的全季节高分辨率计数。更进一步,该系统还提供了与迁徙行为、时间和运动模式相关的洞察,这些模式与环境因素相关联。利用2024年Coonamessett河洄游的视频,系统计数了42,510条河鲱鱼,并揭示上游迁徙在黎明时分达到高峰,而下游迁徙主要在夜间进行,鱼类利用更暗、更安静的时段躲避捕食者。</p><p dir="ltr">通过这一实际应用,研究人员旨在推进计算机视觉在渔业管理中的应用,并为将该技术整合到更广泛水生物种的保护工作中提供框架和最佳实践。Vincent表示:"MIT Sea Grant一直在资助这一领域的研究,Zhongqi Chen及其同事所做的出色工作将提升渔业监测能力,改善渔业管理者和保护组织的鱼类种群评估。这也将为学生、公众和公民科学团体提供教育和培训,支持我们沿海具有重要生态和文化价值的河鲱鱼种群。"</p><p dir="ltr">尽管如此,在渔业管理机构完全实施自动化计数系统之前,持续的传统监测对于保持长期数据集的一致性仍然至关重要。即便到那时,计算机视觉和公民科学也应被视为互补关系。志愿者对于摄像头维护以及直接参与计算机视觉工作流程——从视频标注到模型验证——仍然是必要的。研究人员设想,整合公民观测数据和计算机视觉生成数据将有助于创建更全面、更整体的环境监测方法。</p><p dir="ltr">这项工作由MIT Sea Grant资助,并获得了东北气候适应科学中心、MIT Abdul Latif Jameel水和食品系统种子基金、AI与生物多样性变化全球中心(由美国自然科学基金和加拿大自然科学与工程研究委员会支持)以及MIT本科生研究机会计划的额外支持。</p>
查看原文 导出为 Word 导出为 PDF
查看缓存全文

缓存时间: 2026/05/08 09:03

# 利用计算机视觉增强公民科学参与鱼类监测 来源:https://news.mit.edu/2026/augmenting-citizen-science-computer-vision-fish-monitoring-0325 每年春季,西鲱(river herring)种群从马萨诸塞州沿海水域洄游,开始它们一年一度的溯河旅程,前往淡水产卵地。过去几十年间,西鲱种群数量急剧下降,其洄游活动在该地区受到广泛监测,主要依靠传统目视计数和志愿者项目。 监测鱼类活动并理解种群动态,对于指导保护工作和支撑渔业管理至关重要。随着年度西鲱洄游本月启动,研究人员和资源管理者再次面临尽可能准确计数和估算洄游鱼类种群的挑战。 来自Woodwell气候研究中心、MIT Sea Grant、MIT计算机科学与人工智能实验室(CSAIL)、MIT林肯实验室以及Intuit的研究团队探索了一种新的监测方法,利用水下视频和计算机视觉来补充公民科学工作。该研究团队——包括Woodwell气候研究中心的Zhongqi Chen和Linda Deegan、MIT Sea Grant的Robert Vincent和Kevin Bennett、MIT CSAIL的Sara Beery和Timm Haucke、Intuit的Austin Powell,以及MIT林肯实验室的Lydia Zuehsow——于今年二月在期刊*Remote Sensing in Ecology and Conservation*上发表了描述这项工作的论文。 这篇开放获取论文《从快照到连续估算:利用计算机视觉增强公民科学参与鱼类监测》(https://zslpublications.onlinelibrary.wiley.com/doi/10.1002/rse2.70055)阐述了计算机视觉和深度学习领域的最新进展——从目标检测与跟踪到物种分类——如何为自动化鱼类计数提供有前景的实际解决方案,从而提高效率和数据质量。 传统监测方法受到时间、环境条件和劳动强度的限制。志愿者目视计数仅限于短暂的白天采样时段,无法捕捉夜间活动和短促的洄游高峰——数百条鱼可能在几分钟内通过。虽然被动声学监测和成像声呐等技术已在特定条件下推进了连续鱼类监测,但最有前景且低成本的方案——人工审阅水下视频——仍然劳动密集且耗时。随着对自动化视频处理解决方案需求的增长,本研究提出了一种可扩展、经济高效且可靠的基于深度学习的自动化鱼类监测系统。 研究团队构建了一个端到端流程——从野外水下摄像头到视频标注和模型训练——实现由计算机视觉驱动的自动化鱼类计数。视频采集自马萨诸塞州的三条河流:法尔茅斯的Coonamessett河、伊普斯威奇的Ipswich河,以及马什皮的Santuit河。 为准备训练数据集,团队选择了在光照、水体清晰度、鱼类物种和密度、时段及季节方面具有差异的视频片段,以确保计算机视觉模型在多样化的真实场景中可靠工作。他们使用开源网络平台逐帧手动标注视频,用边界框跟踪鱼类移动。总共标注了1,435个视频片段,涵盖59,850帧。 研究人员将计算机视觉计数结果与人工视频审阅、岸边目视计数以及被动集成应答器(PIT)标记数据进行了对比验证。他们得出结论:基于多地点、多年份多样化数据训练的模型表现最佳,能够产生与常规估算一致的全季节高分辨率计数。更进一步,该系统还提供了与洄游行为、时间和运动模式相关的环境因子洞察。利用2024年Coonamesset河洄游视频,该系统计数了42,510条西鲱,并揭示上游洄游在黎明时分达到高峰,而下游洄游主要在夜间进行,鱼类利用更暗、更安静的时段躲避天敌。 通过这一实际应用,研究人员旨在推进计算机视觉在渔业管理中的应用,并为将该技术整合到多种水生物种的保护工作中提供框架和最佳实践。"MIT Sea Grant已资助该领域研究一段时间了,Zhongqi Chen及其同事这项出色的工作将提升渔业监测能力,改善渔业管理者和保护组织的鱼类种群评估,"Vincent表示,"它还将为学生、公众和公民科学团体提供教育和培训,以支持我们沿海地区具有生态和文化重要性的西鲱种群。" 尽管如此,在渔业管理机构完全实施自动化计数系统之前,持续的传统监测对于保持长期数据集的一致性仍然至关重要。即便如此,计算机视觉和公民科学也应被视为互补关系。志愿者对于摄像头维护以及直接参与计算机视觉工作流程——从视频标注到模型验证——都是必需的。研究人员设想,整合公民观察数据和计算机视觉生成数据将有助于创建更全面、更整体的环境监测方法。 本研究由MIT Sea Grant资助,并获得东北气候适应科学中心、MIT Abdul Latif Jameel水与食品系统种子基金、AI与生物多样性变化全球中心(由国家科学基金会和加拿大自然科学与工程研究委员会支持)以及MIT本科生研究机会计划的额外支持。

相似文章

人机协同深入水下

MIT News — Artificial Intelligence

麻省理工学院林肯实验室正在开发用于人类与自主水下航行器(AUV)协同的算法和硬件,以改善军事任务中在浑浊条件下的水下导航和感知能力。

用 ChatGPT 捕捉大比目鱼

OpenAI Blog

OpenAI 分享了一个人文故事,讲述钓鱼内容创作者 Adam 如何使用 ChatGPT 的 Advanced Voice Mode 获取捕捉大比目鱼的建议,在多次失败后最终成功,展示了 AI 在小众爱好中的实际应用。

AI 如何推进生物声学科学发展,帮助拯救濒危物种

Google DeepMind Blog

Google DeepMind 发布了更新版本的 Perch,这是一款用于生物声学分析的 AI 模型,可帮助保护人士通过音频数据监测濒危物种。新模型改进了鸟类物种预测能力,更好地适应水下环境,并扩展到包括哺乳动物、两栖动物和人为噪声的分析,原始版本已被下载超过 25 万次。

让AI更像人类一样观察世界

Google DeepMind Blog

Google DeepMind在《自然》杂志发表了一篇论文,详细介绍了一种将AI视觉表征与人类认知结构对齐的方法,从而提升模型的鲁鲁棒性和可靠性。

自然观察记录

Simon Willison's Blog

Simon Willison 记录了如何使用 Claude Code for Web 在他的博客上构建一个“自然观察记录”功能,以聚合他在 iNaturalist 上的野生动物照片,并回溯填充了十多年来的观察记录。