kmc
kmc
管理员
管理员
  • UID165
  • 注册日期2004-11-25
  • 最后登录2022-09-22
  • 发帖数9186
  • 经验397枚
  • 威望1点
  • 贡献值124点
  • 好评度41点
  • 忠实会员
  • 终身成就
  • 社区居民
60楼#
发布于:2008-09-07 21:47
netexe:show一下:回到原帖


完全可以用纯文本的,没有必要用百余K的巨幅截图。只需提供build号和成绩就行了,再说成绩也跟配置有关,于是乎只需要提供提升的百分比即可。
Waterfox Current和Firefox Nightly都用,逐渐走出XUL扩展依赖
joyolee
火狐狸
火狐狸
  • UID10190
  • 注册日期2005-12-01
  • 最后登录2019-05-01
  • 发帖数197
  • 经验10枚
  • 威望0点
  • 贡献值0点
  • 好评度0点
61楼#
发布于:2008-09-07 21:47
决定等beta1了
连续几天的版本都不太稳定
经常崩溃
蓝色的吉他
非常火狐
非常火狐
  • UID11286
  • 注册日期2006-01-24
  • 最后登录2017-03-27
  • 发帖数647
  • 经验17枚
  • 威望0点
  • 贡献值8点
  • 好评度0点
62楼#
发布于:2008-09-07 21:47
竟然看到有人在CNBETA.COM投遞樓主的這倏新聞
誰干的,連每夜版都不是,只是TRACEMONKEY的每小時版,這樣也設遞
We may be human,but we're still animals.
kmc
kmc
管理员
管理员
  • UID165
  • 注册日期2004-11-25
  • 最后登录2022-09-22
  • 发帖数9186
  • 经验397枚
  • 威望1点
  • 贡献值124点
  • 好评度41点
  • 忠实会员
  • 终身成就
  • 社区居民
63楼#
发布于:2008-09-07 21:47
蓝色的吉他:竟然看到有人在CNBETA.COM投遞樓主的這倏新聞
誰干的,連每夜版都不是,只是TRACEMONKEY的每小時版,這樣也設遞
回到原帖


Firefox的铁杆支持者纷纷表示,Firefox的新闻出现在CNBETA上对Firefox的业绩影响不大。
Waterfox Current和Firefox Nightly都用,逐渐走出XUL扩展依赖
蓝色的吉他
非常火狐
非常火狐
  • UID11286
  • 注册日期2006-01-24
  • 最后登录2017-03-27
  • 发帖数647
  • 经验17枚
  • 威望0点
  • 贡献值8点
  • 好评度0点
64楼#
发布于:2008-09-07 21:47
cnbeta是个是非之地,洁身自爱的FIREFOX FANS最好绕道
We may be human,but we're still animals.
kmc
kmc
管理员
管理员
  • UID165
  • 注册日期2004-11-25
  • 最后登录2022-09-22
  • 发帖数9186
  • 经验397枚
  • 威望1点
  • 贡献值124点
  • 好评度41点
  • 忠实会员
  • 终身成就
  • 社区居民
65楼#
发布于:2008-09-07 21:47
蓝色的吉他:cnbeta是个是非之地,洁身自爱的FIREFOX FANS最好绕道回到原帖

简直就是IT界的Mop
Waterfox Current和Firefox Nightly都用,逐渐走出XUL扩展依赖
inron
小狐狸
小狐狸
  • UID23365
  • 注册日期2008-03-23
  • 最后登录2009-12-02
  • 发帖数20
  • 经验10枚
  • 威望0点
  • 贡献值0点
  • 好评度0点
66楼#
发布于:2008-09-07 21:47
强大,我的已经AV到81ms~~
ztkx
火狐狸
火狐狸
  • UID7578
  • 注册日期2005-07-25
  • 最后登录2009-01-17
  • 发帖数297
  • 经验10枚
  • 威望0点
  • 贡献值0点
  • 好评度0点
67楼#
发布于:2008-09-07 21:47
3.1 0910
Total:                 2567.4ms +/- 4.7%
放弃盗版office,拥抱OpenOffice.org
smoke
千年狐狸
千年狐狸
  • UID3052
  • 注册日期2005-02-16
  • 最后登录2015-02-01
  • 发帖数2367
  • 经验12枚
  • 威望0点
  • 贡献值0点
  • 好评度0点
  • 社区居民
  • 忠实会员
68楼#
发布于:2008-09-07 21:47
inron:强大,我的已经AV到81ms~~回到原帖




完全可以用纯文本的,没有必要用百余K的巨幅截图。只需提供build号和成绩就行了,再说成绩也跟配置有关,于是乎只需要提供提升的百分比即可。[/quote]
遇到问题请善用论坛搜索功能
kmc
kmc
管理员
管理员
  • UID165
  • 注册日期2004-11-25
  • 最后登录2022-09-22
  • 发帖数9186
  • 经验397枚
  • 威望1点
  • 贡献值124点
  • 好评度41点
  • 忠实会员
  • 终身成就
  • 社区居民
69楼#
发布于:2008-09-07 21:47
smoke总是晒引用啊……
Waterfox Current和Firefox Nightly都用,逐渐走出XUL扩展依赖
inron
小狐狸
小狐狸
  • UID23365
  • 注册日期2008-03-23
  • 最后登录2009-12-02
  • 发帖数20
  • 经验10枚
  • 威望0点
  • 贡献值0点
  • 好评度0点
70楼#
发布于:2008-09-07 21:47

用的是20080910014946 3.1bpre
下载地址就贴中最开始提供地址,发现最快可以到76ms pm740(1.73g) 1.5g内存的老本子
gchao
非常火狐
非常火狐
  • UID15074
  • 注册日期2006-10-20
  • 最后登录2022-08-22
  • 发帖数660
  • 经验11枚
  • 威望0点
  • 贡献值0点
  • 好评度0点
  • 社区居民
71楼#
发布于:2008-09-07 21:47
呵呵,每夜版的速度也提上去了,很好,现在就剩concat Strings还差点了,其他的项目大部分比chrome快了。

FF 3.1:Average time: 56ms
chrome 2052:Average time: 38ms
蓝色的吉他
非常火狐
非常火狐
  • UID11286
  • 注册日期2006-01-24
  • 最后登录2017-03-27
  • 发帖数647
  • 经验17枚
  • 威望0点
  • 贡献值8点
  • 好评度0点
72楼#
发布于:2008-09-07 21:47
gchao:呵呵,每夜版的速度也提上去了,很好,现在就剩concat Strings还差点了,其他的项目大部分比chrome快了。

FF 3.1:Average time: 56ms
chrome 2052:Average time: 38ms
回到原帖


NIGHTLY也提了?昨天的版本我試過,還是老樣子啊?
We may be human,but we're still animals.
goodskyzk
小狐狸
小狐狸
  • UID952
  • 注册日期2004-12-16
  • 最后登录2012-11-23
  • 发帖数75
  • 经验10枚
  • 威望0点
  • 贡献值0点
  • 好评度0点
73楼#
发布于:2008-09-07 21:47
确实大幅提高。

稳定就太差了,一上sohu就崩溃。
aaaa007cn
千年狐狸
千年狐狸
  • UID23968
  • 注册日期2008-05-03
  • 最后登录2022-03-07
  • 发帖数1924
  • 经验1138枚
  • 威望1点
  • 贡献值232点
  • 好评度164点
74楼#
发布于:2008-09-07 21:47
kmc:楼上很强大!谢谢了,测试可用。建议单独开一个主题来讨论这个脚本。

我用的是curl win版不带ssl
http://curl.haxx.se/download/curl-7.19. ... l-sspi.zip

附上我后续的操作脚本,写得很啰嗦仅供参考

cd D:\安装程序\网络工具\browser\
dir /B firefox-3.1*>dir.txt
for /F %%a in (dir.txt) do set file=%%a
unzip -o -qq %file% -d "N:"
move %file% %cd%\Firefox_Nightly_Archive
start "" "N:\firefox\firefox.exe" -profile "N:\firefox\profile"
del dir.txt


另外想问一下wget是不是能多线程?有没有什么命令行的下载器可以多线程的?
回到原帖

不客气

curl可以模拟多线程的
curl -r 0-100 xxxx -o tmp.part1
curl -r 101-200 xxxx -o tmp.part2
curl -r 201- xxxx -o tmp.part3
这样
之后再copy /b tmp.part1+tmp.part2+tmp.part3 tmp
可以用脚本来做
也可以抓libcurl的源代码来改造,用c封装一个多线程的版本

不过这样没啥必要吧。。。
游客

返回顶部