阅读:2854回复:4
有没有能直接复制论坛整页纯贴子内容的扩展
经常在论坛中看到连载文章的贴子,想把它们复制出来,但是连同发贴人的信息(就是左侧头像的部分)也一并复制下来了,整理起来比较麻烦,有没有办法一次性只复制整页贴子的内容的扩展呢。
最好还能增加两个选项: ⒈能把“本贴由某某于X年X月X日编缉过”这一行也过滤掉。 ⒉只复制某人的贴子内容,其它会员的贴子内容过滤掉。 |
|
1楼#
发布于:2009-04-18 09:49
ScrapBook,用DOM橡皮去掉不想要的内容再保存
或是用Aardvark整理一下页面再复制 |
|
|
2楼#
发布于:2009-04-18 09:49
谢谢楼上推介的两个扩展,可以达到目的,但是也比较麻烦,比如去除发贴人的信息就只能一个一个来,没有一次性过滤的功能,如果有一个专门做这个的脚本就好了。
|
|
3楼#
发布于:2009-04-18 09:49
网童和网文快捕
网童 可以保存一个网页或者论坛文章的正文. 可以保存一个页面所有图片 可以保存网页选取部分或者全部为txt,doc,mht格式 可以保存flash 网文快捕-支持导入,导出 可以保存一个页面所有图片 可以保存网页选取部分或者全部为txt,doc,mht格式 可以保存flash 还要个什么拾贝的也支持firefox ScrapBook这个就不是很方便. 想把选取部分保存为文本不行,操作起来也麻烦, 导入导出也不方便. |
|
4楼#
发布于:2009-04-18 09:49
确实是个问题,感觉只能从网页源代码直接进行匹配过滤,然后再保存。好像没见过这样的软件
|
|
|