-
Notifications
You must be signed in to change notification settings - Fork 6
New issue
Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.
By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.
Already on GitHub? Sign in to your account
D-linknet 精度咨询 #11
Comments
您好,DlinkNet原论文的65是官方的在线网站测试,本论文数据集取前5500张图片作为训练集和后726张图片作为测试集。可能您的数据集拆分方式与本论文存在差异。其次本论文是采用的双卡进行训练。 |
我是随机拆分成5500和726,除了用单3090外,其他都一样。有可能我哪里没设置对,精度平均比您这都低了两个点。 |
是的
…------------------ 原始邮件 ------------------
发件人: LiuPeng ***@***.***>
发送时间: 2024年6月4日 13:32
收件人: CVer-Yang/RCFSNet ***@***.***>
抄送: CverYang ***@***.***>, Comment ***@***.***>
主题: Re: [CVer-Yang/RCFSNet] D-linknet 精度咨询 (Issue #11)
您好,DlinkNet原论文的65是官方的在线网站测试,本论文数据集取前5500张图片作为训练集和后726张图片作为测试集。可能您的数据集拆分方式与本论文存在差异。其次本论文是采用的双卡进行训练。
您没有使用随机策略选取数据吗,只是单纯取前5500张?
—
Reply to this email directly, view it on GitHub, or unsubscribe.
You are receiving this because you commented.Message ID: ***@***.***>
|
这是4卡3090复现dlinknet-deepglobe和rcfsnet-mas的结果,和论文中差距都在2-4个点。请问您能提供下这两个数据集吗? |
如果能提供下conda 环境配置(或者conda pack),将不胜感激。 |
我用了您提供的Mas的权重跑出的结果,似乎并不理想。 |
Mas数据集需要先将图片与标签resize成1024,其次我们在mas数据集的训练集与测试集进行了一些裁剪。后续可以将裁剪后的测试集发在本代码下。conda环境因为是在两年前做的工作,已经不再保存。但是近期复现效果还是比较稳定,torch 1.10,opencv 4.2.0.34。双卡batchsize设置为2。
…------------------ 原始邮件 ------------------
发件人: LiuPeng ***@***.***>
发送时间: 2024年6月5日 15:04
收件人: CVer-Yang/RCFSNet ***@***.***>
抄送: CverYang ***@***.***>, Comment ***@***.***>
主题: Re: [CVer-Yang/RCFSNet] D-linknet 精度咨询 (Issue #11)
是的
…
------------------ 原始邮件 ------------------ 发件人: LiuPeng @.> 发送时间: 2024年6月4日 13:32 收件人: CVer-Yang/RCFSNet @.> 抄送: CverYang @.>, Comment @.> 主题: Re: [CVer-Yang/RCFSNet] D-linknet 精度咨询 (Issue #11) 您好,DlinkNet原论文的65是官方的在线网站测试,本论文数据集取前5500张图片作为训练集和后726张图片作为测试集。可能您的数据集拆分方式与本论文存在差异。其次本论文是采用的双卡进行训练。 您没有使用随机策略选取数据吗,只是单纯取前5500张? — Reply to this email directly, view it on GitHub, or unsubscribe. You are receiving this because you commented.Message ID: @.***>
image.png (view on web) 我用了您提供的Mas的权重跑出的结果,似乎并不理想。
—
Reply to this email directly, view it on GitHub, or unsubscribe.
You are receiving this because you commented.Message ID: ***@***.***>
|
代码中似乎已经有resize 论文中和代码似乎用了4张卡 |
代码的resize是将图片变成1024进行推理的。推理后还要在resize成1500。而本论文是直接在图片为1024像素点的基础进行的。
…------------------ 原始邮件 ------------------
发件人: LiuPeng ***@***.***>
发送时间: 2024年6月5日 16:11
收件人: CVer-Yang/RCFSNet ***@***.***>
抄送: CverYang ***@***.***>, Comment ***@***.***>
主题: Re: [CVer-Yang/RCFSNet] D-linknet 精度咨询 (Issue #11)
Mas数据集需要先将图片与标签resize成1024,其次我们在mas数据集的训练集与测试集进行了一些裁剪。后续可以将裁剪后的测试集发在本代码下。conda环境因为是在两年前做的工作,已经不再保存。但是近期复现效果还是比较稳定,torch 1.10,opencv 4.2.0.34。双卡batchsize设置为2。
…
------------------ 原始邮件 ------------------ 发件人: LiuPeng @.> 发送时间: 2024年6月5日 15:04 收件人: CVer-Yang/RCFSNet @.> 抄送: CverYang @.>, Comment @.> 主题: Re: [CVer-Yang/RCFSNet] D-linknet 精度咨询 (Issue #11) 是的 … ------------------ 原始邮件 ------------------ 发件人: LiuPeng @.> 发送时间: 2024年6月4日 13:32 收件人: CVer-Yang/RCFSNet @.> 抄送: CverYang @.>, Comment @.> 主题: Re: [CVer-Yang/RCFSNet] D-linknet 精度咨询 (Issue #11) 您好,DlinkNet原论文的65是官方的在线网站测试,本论文数据集取前5500张图片作为训练集和后726张图片作为测试集。可能您的数据集拆分方式与本论文存在差异。其次本论文是采用的双卡进行训练。 您没有使用随机策略选取数据吗,只是单纯取前5500张? — Reply to this email directly, view it on GitHub, or unsubscribe. You are receiving this because you commented.Message ID: @.> image.png (view on web) 我用了您提供的Mas的权重跑出的结果,似乎并不理想。 — Reply to this email directly, view it on GitHub, or unsubscribe. You are receiving this because you commented.Message ID: @.>
image.png (view on web) 代码中似乎已经有resize 论文中和代码似乎用了4张卡
—
Reply to this email directly, view it on GitHub, or unsubscribe.
You are receiving this because you commented.Message ID: ***@***.***>
|
deepglobe的权重是否可以共享下。以及deepglobe和mas处理好的数据集。谢谢 |
按照论文中最佳域值为0.3,这里似乎需要改成2.4 |
由于一直在出差回复较慢。数据集拆分方式:DeepGlobe 1-5500编号为训练,其余726为测试。 RCFSNet论文中Massachusetts数据集按照原始划分方式,我们采用了裁剪方式,由于数量较大不方便分享。此外,我们在最近的工作在重新进行了调整,将数据集resize成1024x1024,然后开始训练。模型也具有很好的效果。以上数据集都是比较常用的公开数据集,按照此方式即可。测试中阈值为threshold*8。此处确实需要修改成2.4. |
您好,d-linkent原论文的精度大概是65左右,我用您的代码复现也差不多,跑不出67这个精度。您这边用了什么特别的训练策略吗,谢谢
The text was updated successfully, but these errors were encountered: