~ubuntu-branches/ubuntu/dapper/wget/dapper-updates

« back to all changes in this revision

Viewing changes to TODO

  • Committer: Bazaar Package Importer
  • Author(s): Noèl Köthe
  • Date: 2004-02-13 20:26:44 UTC
  • Revision ID: james.westby@ubuntu.com-20040213202644-skxj93qs15sskqfy
Tags: upstream-1.9.1
Import upstream version 1.9.1

Show diffs side-by-side

added added

removed removed

Lines of Context:
 
1
                                 Hey Emacs, this is -*- outline -*- mode
 
2
 
 
3
This is the to-do list for GNU Wget.  There is no timetable of when we
 
4
plan to implement these features -- this is just a list of features
 
5
we'd like to see in Wget, as well as a list of problems that need
 
6
fixing.  Patches to implement these items are likely to be accepted,
 
7
especially if they follow the coding convention outlined in PATCHES
 
8
and if they patch the documentation as well.
 
9
 
 
10
The items are not listed in any particular order (except that
 
11
recently-added items may tend towards the top).  Not all of these
 
12
represent user-visible changes.
 
13
 
 
14
* Currently Wget mirrors remote FTP permissions whenever it retrieves
 
15
  the directory listing.  This is undesirable for most users, as
 
16
  permissions like "664" are frequently used on the servers, which
 
17
  might not be what the user wants.  Wget should be changed not to
 
18
  mirror remote FTP permissions by default.  There should be a new
 
19
  option add an option that enables this back on.
 
20
 
 
21
* Honor `Content-Disposition: XXX; filename="FILE"' when creating the
 
22
  file name.  If possible, try not to break `-nc' and friends when
 
23
  doing that.
 
24
 
 
25
* Should allow retries with multiple downloads when using -O on
 
26
  regular files.  As the source comment says: "A possible solution to
 
27
  [rewind not working with multiple downloads] would be to remember
 
28
  the file position in the output document and to seek to that
 
29
  position, instead of rewinding."
 
30
 
 
31
  But the above won't work for -O/dev/stdout, when stdout is a pipe.
 
32
  An even better solution would be to simply keep writing to the same
 
33
  file descriptor each time, instead of reopening it in append mode.
 
34
 
 
35
* Wget shouldn't delete rejected files that were not downloaded, but
 
36
  just found on disk because of `-nc'.  For example, `wget -r -nc
 
37
  -A.gif URL' should allow the user to get all the GIFs without
 
38
  removing any of the existing HTML files.
 
39
 
 
40
* Be careful not to lose username/password information given for the
 
41
  URL on the command line.
 
42
 
 
43
* Add a --range parameter allowing you to explicitly specify a range
 
44
  of bytes to get from a file over HTTP (FTP only supports ranges
 
45
  ending at the end of the file, though forcibly disconnecting from
 
46
  the server at the desired endpoint might be workable).
 
47
 
 
48
* If multiple FTP URLs are specified that are on the same host, Wget should
 
49
  re-use the connection rather than opening a new one for each file.
 
50
 
 
51
* Try to devise a scheme so that, when password is unknown, Wget asks
 
52
  the user for one.
 
53
 
 
54
* If -c used with -N, check to make sure a file hasn't changed on the server
 
55
  before "continuing" to download it (preventing a bogus hybrid file).
 
56
 
 
57
* Generalize --html-extension to something like --mime-extensions and
 
58
  have it look at mime.types/mimecap file for preferred extension.
 
59
  Non-HTML files with filenames changed this way would be
 
60
  re-downloaded each time despite -N unless .orig files were saved for
 
61
  them.  Since .orig would contain the same data as non-.orig, the
 
62
  latter could be just a link to the former.  Another possibility
 
63
  would be to implement a per-directory database called something like
 
64
  .wget_url_mapping containing URLs and their corresponding filenames.
 
65
 
 
66
* When spanning hosts, there's no way to say that you are only interested in
 
67
  files in a certain directory on _one_ of the hosts (-I and -X apply to all).
 
68
  Perhaps -I and -X should take an optional hostname before the directory?
 
69
 
 
70
* --retr-symlinks should cause wget to traverse links to directories too.
 
71
 
 
72
* Make wget return non-zero status in more situations, like incorrect HTTP auth.
 
73
 
 
74
* Make -K compare X.orig to X and move the former on top of the latter if 
 
75
  they're the same, rather than leaving identical .orig files laying around.
 
76
 
 
77
* Make `-k' check for files that were downloaded in the past and convert links 
 
78
  to them in newly-downloaded documents.
 
79
 
 
80
* Add option to clobber existing file names (no `.N' suffixes).
 
81
 
 
82
* Introduce real "boolean" options.  Every `--foo' setting should have
 
83
  a corresponding `--no-foo' that turns off.  This is useful even for
 
84
  options turned off by default, because the default can be reversed
 
85
  in `.wgetrc'.  Get rid of `--foo=no'.  Short options would be
 
86
  handled as `-x' vs. `-nx'.
 
87
 
 
88
* Add option to only list wildcard matches without doing the download.
 
89
 
 
90
* Handle MIME types correctly.  There should be an option to (not)
 
91
  retrieve files based on MIME types, e.g. `--accept-types=image/*'.
 
92
 
 
93
* Allow time-stamping by arbitrary date.
 
94
 
 
95
* Allow size limit to files (perhaps with an option to download oversize files 
 
96
  up through the limit or not at all, to get more functionality than [u]limit.
 
97
 
 
98
* Download to .in* when mirroring.
 
99
 
 
100
* Add an option to delete or move no-longer-existent files when mirroring.
 
101
 
 
102
* Implement uploading (--upload URL?) in FTP and HTTP.
 
103
 
 
104
* Rewrite FTP code to allow for easy addition of new commands.  It
 
105
  should probably be coded as a simple DFA engine.
 
106
 
 
107
* Make HTTP timestamping use If-Modified-Since facility.
 
108
 
 
109
* Add more protocols (e.g. gopher and news), implementing them in a
 
110
  modular fashion.
 
111
 
 
112
* Add a "rollback" option to have continued retrieval throw away a
 
113
  configurable number of bytes at the end of a file before resuming
 
114
  download.  Apparently, some stupid proxies insert a "transfer
 
115
  interrupted" string we need to get rid of.