Skip to content
New issue

Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.

By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.

Already on GitHub? Sign in to your account

D-linknet 精度咨询 #11

Open
LPeng625 opened this issue May 18, 2024 · 12 comments
Open

D-linknet 精度咨询 #11

LPeng625 opened this issue May 18, 2024 · 12 comments

Comments

@LPeng625
Copy link

您好,d-linkent原论文的精度大概是65左右,我用您的代码复现也差不多,跑不出67这个精度。您这边用了什么特别的训练策略吗,谢谢

@CVer-Yang
Copy link
Owner

您好,DlinkNet原论文的65是官方的在线网站测试,本论文数据集取前5500张图片作为训练集和后726张图片作为测试集。可能您的数据集拆分方式与本论文存在差异。其次本论文是采用的双卡进行训练。

@LPeng625
Copy link
Author

LPeng625 commented Jun 4, 2024

您好,DlinkNet原论文的65是官方的在线网站测试,本论文数据集取前5500张图片作为训练集和后726张图片作为测试集。可能您的数据集拆分方式与本论文存在差异。其次本论文是采用的双卡进行训练。

我是随机拆分成5500和726,除了用单3090外,其他都一样。有可能我哪里没设置对,精度平均比您这都低了两个点。

@CVer-Yang
Copy link
Owner

CVer-Yang commented Jun 4, 2024 via email

@LPeng625
Copy link
Author

LPeng625 commented Jun 5, 2024

是的

------------------ 原始邮件 ------------------ 发件人: LiuPeng @.> 发送时间: 2024年6月4日 13:32 收件人: CVer-Yang/RCFSNet @.> 抄送: CverYang @.>, Comment @.> 主题: Re: [CVer-Yang/RCFSNet] D-linknet 精度咨询 (Issue #11) 您好,DlinkNet原论文的65是官方的在线网站测试,本论文数据集取前5500张图片作为训练集和后726张图片作为测试集。可能您的数据集拆分方式与本论文存在差异。其次本论文是采用的双卡进行训练。 您没有使用随机策略选取数据吗,只是单纯取前5500张? — Reply to this email directly, view it on GitHub, or unsubscribe. You are receiving this because you commented.Message ID: @.***>

image image

这是4卡3090复现dlinknet-deepglobe和rcfsnet-mas的结果,和论文中差距都在2-4个点。请问您能提供下这两个数据集吗?

@LPeng625
Copy link
Author

LPeng625 commented Jun 5, 2024

是的

------------------ 原始邮件 ------------------ 发件人: LiuPeng @.> 发送时间: 2024年6月4日 13:32 收件人: CVer-Yang/RCFSNet _@**._> 抄送: CverYang _@.>, Comment @._> 主题: Re: [CVer-Yang/RCFSNet] D-linknet 精度咨询 (Issue #11) 您好,DlinkNet原论文的65是官方的在线网站测试,本论文数据集取前5500张图片作为训练集和后726张图片作为测试集。可能您的数据集拆分方式与本论文存在差异。其次本论文是采用的双卡进行训练。 您没有使用随机策略选取数据吗,只是单纯取前5500张? — Reply to this email directly, view it on GitHub, or unsubscribe. You are receiving this because you commented.Message ID: _@_.*>

image image
这是4卡3090复现dlinknet-deepglobe和rcfsnet-mas的结果,和论文中差距都在2-4个点。请问您能提供下这两个数据集吗?

如果能提供下conda 环境配置(或者conda pack),将不胜感激。

@LPeng625
Copy link
Author

LPeng625 commented Jun 5, 2024

是的

------------------ 原始邮件 ------------------ 发件人: LiuPeng @.> 发送时间: 2024年6月4日 13:32 收件人: CVer-Yang/RCFSNet @.> 抄送: CverYang @.>, Comment @.> 主题: Re: [CVer-Yang/RCFSNet] D-linknet 精度咨询 (Issue #11) 您好,DlinkNet原论文的65是官方的在线网站测试,本论文数据集取前5500张图片作为训练集和后726张图片作为测试集。可能您的数据集拆分方式与本论文存在差异。其次本论文是采用的双卡进行训练。 您没有使用随机策略选取数据吗,只是单纯取前5500张? — Reply to this email directly, view it on GitHub, or unsubscribe. You are receiving this because you commented.Message ID: @.***>

image 我用了您提供的Mas的权重跑出的结果,似乎并不理想。

@CVer-Yang
Copy link
Owner

CVer-Yang commented Jun 5, 2024 via email

@LPeng625
Copy link
Author

LPeng625 commented Jun 5, 2024

Mas数据集需要先将图片与标签resize成1024,其次我们在mas数据集的训练集与测试集进行了一些裁剪。后续可以将裁剪后的测试集发在本代码下。conda环境因为是在两年前做的工作,已经不再保存。但是近期复现效果还是比较稳定,torch 1.10,opencv 4.2.0.34。双卡batchsize设置为2。

------------------ 原始邮件 ------------------ 发件人: LiuPeng @.> 发送时间: 2024年6月5日 15:04 收件人: CVer-Yang/RCFSNet @.> 抄送: CverYang @.>, Comment @.> 主题: Re: [CVer-Yang/RCFSNet] D-linknet 精度咨询 (Issue #11) 是的 … ------------------ 原始邮件 ------------------ 发件人: LiuPeng @.> 发送时间: 2024年6月4日 13:32 收件人: CVer-Yang/RCFSNet @.> 抄送: CverYang @.>, Comment @.> 主题: Re: [CVer-Yang/RCFSNet] D-linknet 精度咨询 (Issue #11) 您好,DlinkNet原论文的65是官方的在线网站测试,本论文数据集取前5500张图片作为训练集和后726张图片作为测试集。可能您的数据集拆分方式与本论文存在差异。其次本论文是采用的双卡进行训练。 您没有使用随机策略选取数据吗,只是单纯取前5500张? — Reply to this email directly, view it on GitHub, or unsubscribe. You are receiving this because you commented.Message ID: @.> image.png (view on web) 我用了您提供的Mas的权重跑出的结果,似乎并不理想。 — Reply to this email directly, view it on GitHub, or unsubscribe. You are receiving this because you commented.Message ID: @.>

image 代码中似乎已经有resize 论文中和代码似乎用了4张卡

@CVer-Yang
Copy link
Owner

CVer-Yang commented Jun 5, 2024 via email

@LPeng625
Copy link
Author

LPeng625 commented Jun 5, 2024

代码的resize是将图片变成1024进行推理的。推理后还要在resize成1500。而本论文是直接在图片为1024像素点的基础进行的。

------------------ 原始邮件 ------------------ 发件人: LiuPeng @.> 发送时间: 2024年6月5日 16:11 收件人: CVer-Yang/RCFSNet @.> 抄送: CverYang @.>, Comment @.> 主题: Re: [CVer-Yang/RCFSNet] D-linknet 精度咨询 (Issue #11) Mas数据集需要先将图片与标签resize成1024,其次我们在mas数据集的训练集与测试集进行了一些裁剪。后续可以将裁剪后的测试集发在本代码下。conda环境因为是在两年前做的工作,已经不再保存。但是近期复现效果还是比较稳定,torch 1.10,opencv 4.2.0.34。双卡batchsize设置为2。 … ------------------ 原始邮件 ------------------ 发件人: LiuPeng @.> 发送时间: 2024年6月5日 15:04 收件人: CVer-Yang/RCFSNet @.> 抄送: CverYang @.>, Comment @.> 主题: Re: [CVer-Yang/RCFSNet] D-linknet 精度咨询 (Issue #11) 是的 … ------------------ 原始邮件 ------------------ 发件人: LiuPeng @.> 发送时间: 2024年6月4日 13:32 收件人: CVer-Yang/RCFSNet @.> 抄送: CverYang @.>, Comment @.> 主题: Re: [CVer-Yang/RCFSNet] D-linknet 精度咨询 (Issue #11) 您好,DlinkNet原论文的65是官方的在线网站测试,本论文数据集取前5500张图片作为训练集和后726张图片作为测试集。可能您的数据集拆分方式与本论文存在差异。其次本论文是采用的双卡进行训练。 您没有使用随机策略选取数据吗,只是单纯取前5500张? — Reply to this email directly, view it on GitHub, or unsubscribe. You are receiving this because you commented.Message ID: @.> image.png (view on web) 我用了您提供的Mas的权重跑出的结果,似乎并不理想。 — Reply to this email directly, view it on GitHub, or unsubscribe. You are receiving this because you commented.Message ID: @.> image.png (view on web) 代码中似乎已经有resize 论文中和代码似乎用了4张卡 — Reply to this email directly, view it on GitHub, or unsubscribe. You are receiving this because you commented.Message ID: @.***>

deepglobe的权重是否可以共享下。以及deepglobe和mas处理好的数据集。谢谢

@LPeng625
Copy link
Author

LPeng625 commented Jun 5, 2024

代码的resize是将图片变成1024进行推理的。推理后还要在resize成1500。而本论文是直接在图片为1024像素点的基础进行的。

------------------ 原始邮件 ------------------ 发件人: LiuPeng @.> 发送时间: 2024年6月5日 16:11 收件人: CVer-Yang/RCFSNet @.> 抄送: CverYang @.>, Comment @.> 主题: Re: [CVer-Yang/RCFSNet] D-linknet 精度咨询 (Issue #11) Mas数据集需要先将图片与标签resize成1024,其次我们在mas数据集的训练集与测试集进行了一些裁剪。后续可以将裁剪后的测试集发在本代码下。conda环境因为是在两年前做的工作,已经不再保存。但是近期复现效果还是比较稳定,torch 1.10,opencv 4.2.0.34。双卡batchsize设置为2。 … ------------------ 原始邮件 ------------------ 发件人: LiuPeng @.> 发送时间: 2024年6月5日 15:04 收件人: CVer-Yang/RCFSNet @.> 抄送: CverYang @.>, Comment @.> 主题: Re: [CVer-Yang/RCFSNet] D-linknet 精度咨询 (Issue #11) 是的 … ------------------ 原始邮件 ------------------ 发件人: LiuPeng @.> 发送时间: 2024年6月4日 13:32 收件人: CVer-Yang/RCFSNet @.> 抄送: CverYang @.>, Comment @.> 主题: Re: [CVer-Yang/RCFSNet] D-linknet 精度咨询 (Issue #11) 您好,DlinkNet原论文的65是官方的在线网站测试,本论文数据集取前5500张图片作为训练集和后726张图片作为测试集。可能您的数据集拆分方式与本论文存在差异。其次本论文是采用的双卡进行训练。 您没有使用随机策略选取数据吗,只是单纯取前5500张? — Reply to this email directly, view it on GitHub, or unsubscribe. You are receiving this because you commented.Message ID: @.> image.png (view on web) 我用了您提供的Mas的权重跑出的结果,似乎并不理想。 — Reply to this email directly, view it on GitHub, or unsubscribe. You are receiving this because you commented.Message ID: @.> image.png (view on web) 代码中似乎已经有resize 论文中和代码似乎用了4张卡 — Reply to this email directly, view it on GitHub, or unsubscribe. You are receiving this because you commented.Message ID: @.***>

image 按照论文中最佳域值为0.3,这里似乎需要改成2.4

@CVer-Yang
Copy link
Owner

由于一直在出差回复较慢。数据集拆分方式:DeepGlobe 1-5500编号为训练,其余726为测试。 RCFSNet论文中Massachusetts数据集按照原始划分方式,我们采用了裁剪方式,由于数量较大不方便分享。此外,我们在最近的工作在重新进行了调整,将数据集resize成1024x1024,然后开始训练。模型也具有很好的效果。以上数据集都是比较常用的公开数据集,按照此方式即可。测试中阈值为threshold*8。此处确实需要修改成2.4.

Sign up for free to join this conversation on GitHub. Already have an account? Sign in to comment
Labels
None yet
Projects
None yet
Development

No branches or pull requests

2 participants