BENCHMARKS
上传用户:ig0539
上传日期:2022-05-21
资源大小:181k
文件大小:3k
源码类别:

Ftp客户端

开发平台:

C/C++

  1. - See also SPEED
  2. Update 2nd Nov 2001
  3. ftp.redhat.com ran vsftpd for the RedHat 7.2 release. vsftpd achieved 4,000
  4. concurrent users on a single machine with 1Gb RAM. Even with this insane user
  5. count, bandwidth remained totally saturated. The user count could have been
  6. higher, but the machine ran out of processes.
  7. --
  8. Below are some quick benchmark figures vs. wu-ftpd. This is an untuned BETA
  9. version of vsftpd (0.0.10)
  10. The executive summary is that wu-ftpd got a thorough thrashing. The most
  11. telling statistic is wu-ftpd typically failing to sustain 400 users, whereas
  12. vsftpd copes with 1000 with room to spare.
  13. A 2.2.x kernel was used. A 2.4.x kernel should make vsftpd look even better
  14. relative to wu-ftpd thanks to the sendfile() boosts in 2.4.x. A 2.4.x kernel
  15. with zerocopy should be amazing.
  16. Many thanks to Andrew Anderson <andrew@redhat.com>
  17. --
  18. Here's some benchmarks that I did on vsftpd vs. wu-ftpd.  The tests were
  19. run with "dkftpbench -hftpserver -n500 -t600 -f/pub/dkftp/<file>".  The
  20. attached file are the summary output with time to reach the steady-state
  21. condition.
  22. The interesting things I noticed are:
  23. - In the raw test results, vsftpd had a much higher peak on the x10k.dat
  24. transfer run than wu-ftpd did.  Wu-ftpd peaked at ~150 connections and
  25. bled down to ~130 connections, while vsftpd peaked at ~400 connections and
  26. bled down to ~160 connections.  I tend to believe the peaks more than the
  27. final steady-state that dkftpbench reports, though.
  28. - For the other tests, our wu-ftpd setup was limited to 400 connections,
  29. but in about half of the x100k/x1000k runs could not even sustain 400
  30. connections, while vsftpd handled 500 easily on those runs.
  31. - During the peak runs at x10k, the machine load with vsftpd looked like
  32. this (I don't have this data still for the wu-ftpd runs):
  33. 01:01:00 AM       all      4.92      0.00     21.23     73.85
  34. 03:31:00 AM       all      4.89      0.00     19.53     75.58
  35. 05:11:00 AM       all      4.19      0.00     16.89     78.92
  36. 07:01:00 AM       all      5.61      0.00     22.47     71.92
  37. The steady-state loads were more in the 3-5% user, 10-15% system. For the
  38. x100/x1000 loads with vsftpd, the system load looked like this:
  39. x100k.dat:
  40. 09:01:00 AM       all      2.27      0.00      9.79     87.94
  41. x1000k.dat:
  42. 11:01:00 AM       all      0.42      0.00      5.75     93.83
  43. Not bad -- 500 concurrent users for ~7% system load.
  44. - Just for kicks I ran the x1000k test with 1000 users.  At peak load:
  45. X1000k.dat with 1000 users:
  46. 04:41:00 PM       all      1.23      0.00     46.59     52.18
  47. Based on what I'm seeing, it looks like if a server had enough bandwidth,
  48. it could indeed sustain ~2000 users with the current 2 process model
  49. that's implemented in vsftpd.  I did notice that dkftpbench slowed down
  50. the connection rate after 800 connections.  I'm not sure if that was a
  51. dkftpbench issue, or if I ran into something other limit.