vital
火狐狸
火狐狸
  • UID4782
  • 注册日期2005-04-06
  • 最后登录2014-09-28
  • 发帖数147
  • 经验10枚
  • 威望0点
  • 贡献值0点
  • 好评度0点
阅读:2553回复:4

有没有能直接复制论坛整页纯贴子内容的扩展

楼主#
更多 发布于:2009-04-18 09:49
经常在论坛中看到连载文章的贴子,想把它们复制出来,但是连同发贴人的信息(就是左侧头像的部分)也一并复制下来了,整理起来比较麻烦,有没有办法一次性只复制整页贴子的内容的扩展呢。
最好还能增加两个选项:
⒈能把“本贴由某某于X年X月X日编缉过”这一行也过滤掉。
⒉只复制某人的贴子内容,其它会员的贴子内容过滤掉。
Cye3s
千年狐狸
千年狐狸
  • UID155
  • 注册日期2004-11-25
  • 最后登录2024-04-28
  • 发帖数1322
  • 经验95枚
  • 威望0点
  • 贡献值34点
  • 好评度14点
  • 社区居民
  • 忠实会员
1楼#
发布于:2009-04-18 09:49
ScrapBook,用DOM橡皮去掉不想要的内容再保存
或是用Aardvark整理一下页面再复制
我很懒...
vital
火狐狸
火狐狸
  • UID4782
  • 注册日期2005-04-06
  • 最后登录2014-09-28
  • 发帖数147
  • 经验10枚
  • 威望0点
  • 贡献值0点
  • 好评度0点
2楼#
发布于:2009-04-18 09:49
谢谢楼上推介的两个扩展,可以达到目的,但是也比较麻烦,比如去除发贴人的信息就只能一个一个来,没有一次性过滤的功能,如果有一个专门做这个的脚本就好了。
风语者
火狐狸
火狐狸
  • UID28581
  • 注册日期2009-04-14
  • 最后登录2022-02-09
  • 发帖数204
  • 经验185枚
  • 威望0点
  • 贡献值220点
  • 好评度5点
3楼#
发布于:2009-04-18 09:49
网童和网文快捕

网童
可以保存一个网页或者论坛文章的正文.
可以保存一个页面所有图片
可以保存网页选取部分或者全部为txt,doc,mht格式
可以保存flash
网文快捕-支持导入,导出
可以保存一个页面所有图片
可以保存网页选取部分或者全部为txt,doc,mht格式
可以保存flash

还要个什么拾贝的也支持firefox
ScrapBook这个就不是很方便.
想把选取部分保存为文本不行,操作起来也麻烦,
导入导出也不方便.
lord
非常火狐
非常火狐
  • UID6208
  • 注册日期2005-05-21
  • 最后登录2024-03-27
  • 发帖数634
  • 经验81枚
  • 威望0点
  • 贡献值12点
  • 好评度3点
  • 社区居民
  • 忠实会员
4楼#
发布于:2009-04-18 09:49
确实是个问题,感觉只能从网页源代码直接进行匹配过滤,然后再保存。好像没见过这样的软件
心想事成,人生如梦
游客

返回顶部