We read every piece of feedback, and take your input very seriously.
To see all available qualifiers, see our documentation.
Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.
By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.
Already on GitHub? Sign in to your account
您好!
因为最近对你们在DWIE数据集上的实验十分感兴趣,我最近也在DWIE数据集上尝试复现一些模型结果,但结果好像都与您们论文里报道的有些差别,考虑原因可能是DWIE数据集上的很多文档长度会超过BERT的最大输入限制512,请问一下您们是用的ATLOP中的滑动窗口处理的吗?但ATLOP中的滑动窗口貌似也是扩充到了1024,实际还是不能满足很多文档长度需求,想请问一下您们是如何处理的呢?
期待您的回复,非常感谢!
祝好
The text was updated successfully, but these errors were encountered:
您好! 因为最近对你们在DWIE数据集上的实验十分感兴趣,我最近也在DWIE数据集上尝试复现一些模型结果,但结果好像都与您们论文里报道的有些差别,考虑原因可能是DWIE数据集上的很多文档长度会超过BERT的最大输入限制512,请问一下您们是用的ATLOP中的滑动窗口处理的吗?但ATLOP中的滑动窗口貌似也是扩充到了1024,实际还是不能满足很多文档长度需求,想请问一下您们是如何处理的呢? 期待您的回复,非常感谢! 祝好
您好!感谢关注!
请问您指的是 backbone 的结果差别比较大吗?具体差异有多少呢,下面给出一组 ATLOP 上收敛的 trace 给您做参考:
关于 context 长度溢出的处理,目前我们遵循 ATLOP 的设定,用两个 512 长度的窗口叠加,受制于显存大小,大于 1024 的部分仍被截断。当然,超长文本上的抽取确实也还是一个值得探讨的问题,所以近期也有一些工作关注在关系抽取之前进行 model-based / prior-based evidence 抽取,一定程度上也许能缓解这个问题。
希望能解决您的疑问,欢迎继续讨论!
祝好!
Sorry, something went wrong.
确实是backbone过程中的效果差异,验证集上的F1差了大概四个点左右,可能与参数设置,以及对长度的处理有关,我再试试看看,十分感谢您的回答!
No branches or pull requests
您好!
因为最近对你们在DWIE数据集上的实验十分感兴趣,我最近也在DWIE数据集上尝试复现一些模型结果,但结果好像都与您们论文里报道的有些差别,考虑原因可能是DWIE数据集上的很多文档长度会超过BERT的最大输入限制512,请问一下您们是用的ATLOP中的滑动窗口处理的吗?但ATLOP中的滑动窗口貌似也是扩充到了1024,实际还是不能满足很多文档长度需求,想请问一下您们是如何处理的呢?
期待您的回复,非常感谢!
祝好
The text was updated successfully, but these errors were encountered: