~ubuntu-branches/ubuntu/hardy/wget/hardy-security

« back to all changes in this revision

Viewing changes to doc/wget.info-1

  • Committer: Bazaar Package Importer
  • Author(s): Noèl Köthe
  • Date: 2004-02-13 20:26:44 UTC
  • Revision ID: james.westby@ubuntu.com-20040213202644-skxj93qs15sskqfy
Tags: upstream-1.9.1
Import upstream version 1.9.1

Show diffs side-by-side

added added

removed removed

Lines of Context:
 
1
This is wget.info, produced by makeinfo version 4.3 from ./wget.texi.
 
2
 
 
3
INFO-DIR-SECTION Network Applications
 
4
START-INFO-DIR-ENTRY
 
5
* Wget: (wget).         The non-interactive network downloader.
 
6
END-INFO-DIR-ENTRY
 
7
 
 
8
   This file documents the the GNU Wget utility for downloading network
 
9
data.
 
10
 
 
11
   Copyright (C) 1996, 1997, 1998, 2000, 2001, 2002, 2003 Free Software
 
12
Foundation, Inc.
 
13
 
 
14
   Permission is granted to make and distribute verbatim copies of this
 
15
manual provided the copyright notice and this permission notice are
 
16
preserved on all copies.
 
17
 
 
18
   Permission is granted to copy, distribute and/or modify this document
 
19
under the terms of the GNU Free Documentation License, Version 1.1 or
 
20
any later version published by the Free Software Foundation; with the
 
21
Invariant Sections being "GNU General Public License" and "GNU Free
 
22
Documentation License", with no Front-Cover Texts, and with no
 
23
Back-Cover Texts.  A copy of the license is included in the section
 
24
entitled "GNU Free Documentation License".
 
25
 
 
26
 
 
27
File: wget.info,  Node: Top,  Next: Overview,  Prev: (dir),  Up: (dir)
 
28
 
 
29
Wget 1.9.1
 
30
**********
 
31
 
 
32
   This manual documents version 1.9.1 of GNU Wget, the freely
 
33
available utility for network downloads.
 
34
 
 
35
   Copyright (C) 1996, 1997, 1998, 2000, 2001, 2003 Free Software
 
36
Foundation, Inc.
 
37
 
 
38
* Menu:
 
39
 
 
40
* Overview::            Features of Wget.
 
41
* Invoking::            Wget command-line arguments.
 
42
* Recursive Retrieval:: Description of recursive retrieval.
 
43
* Following Links::     The available methods of chasing links.
 
44
* Time-Stamping::       Mirroring according to time-stamps.
 
45
* Startup File::        Wget's initialization file.
 
46
* Examples::            Examples of usage.
 
47
* Various::             The stuff that doesn't fit anywhere else.
 
48
* Appendices::          Some useful references.
 
49
* Copying::             You may give out copies of Wget and of this manual.
 
50
* Concept Index::       Topics covered by this manual.
 
51
 
 
52
 
 
53
File: wget.info,  Node: Overview,  Next: Invoking,  Prev: Top,  Up: Top
 
54
 
 
55
Overview
 
56
********
 
57
 
 
58
   GNU Wget is a free utility for non-interactive download of files from
 
59
the Web.  It supports HTTP, HTTPS, and FTP protocols, as well as
 
60
retrieval through HTTP proxies.
 
61
 
 
62
   This chapter is a partial overview of Wget's features.
 
63
 
 
64
   * Wget is non-interactive, meaning that it can work in the
 
65
     background, while the user is not logged on.  This allows you to
 
66
     start a retrieval and disconnect from the system, letting Wget
 
67
     finish the work.  By contrast, most of the Web browsers require
 
68
     constant user's presence, which can be a great hindrance when
 
69
     transferring a lot of data.
 
70
 
 
71
 
 
72
   * Wget can follow links in HTML and XHTML pages and create local
 
73
     versions of remote web sites, fully recreating the directory
 
74
     structure of the original site.  This is sometimes referred to as
 
75
     "recursive downloading."  While doing that, Wget respects the
 
76
     Robot Exclusion Standard (`/robots.txt').  Wget can be instructed
 
77
     to convert the links in downloaded HTML files to the local files
 
78
     for offline viewing.
 
79
 
 
80
 
 
81
   * File name wildcard matching and recursive mirroring of directories
 
82
     are available when retrieving via FTP.  Wget can read the
 
83
     time-stamp information given by both HTTP and FTP servers, and
 
84
     store it locally.  Thus Wget can see if the remote file has
 
85
     changed since last retrieval, and automatically retrieve the new
 
86
     version if it has.  This makes Wget suitable for mirroring of FTP
 
87
     sites, as well as home pages.
 
88
 
 
89
 
 
90
   * Wget has been designed for robustness over slow or unstable network
 
91
     connections; if a download fails due to a network problem, it will
 
92
     keep retrying until the whole file has been retrieved.  If the
 
93
     server supports regetting, it will instruct the server to continue
 
94
     the download from where it left off.
 
95
 
 
96
 
 
97
   * Wget supports proxy servers, which can lighten the network load,
 
98
     speed up retrieval and provide access behind firewalls.  However,
 
99
     if you are behind a firewall that requires that you use a socks
 
100
     style gateway, you can get the socks library and build Wget with
 
101
     support for socks.  Wget also supports the passive FTP downloading
 
102
     as an option.
 
103
 
 
104
 
 
105
   * Built-in features offer mechanisms to tune which links you wish to
 
106
     follow (*note Following Links::).
 
107
 
 
108
 
 
109
   * The retrieval is conveniently traced with printing dots, each dot
 
110
     representing a fixed amount of data received (1KB by default).
 
111
     These representations can be customized to your preferences.
 
112
 
 
113
 
 
114
   * Most of the features are fully configurable, either through
 
115
     command line options, or via the initialization file `.wgetrc'
 
116
     (*note Startup File::).  Wget allows you to define "global"
 
117
     startup files (`/usr/local/etc/wgetrc' by default) for site
 
118
     settings.
 
119
 
 
120
 
 
121
   * Finally, GNU Wget is free software.  This means that everyone may
 
122
     use it, redistribute it and/or modify it under the terms of the
 
123
     GNU General Public License, as published by the Free Software
 
124
     Foundation (*note Copying::).
 
125
 
 
126
 
 
127
File: wget.info,  Node: Invoking,  Next: Recursive Retrieval,  Prev: Overview,  Up: Top
 
128
 
 
129
Invoking
 
130
********
 
131
 
 
132
   By default, Wget is very simple to invoke.  The basic syntax is:
 
133
 
 
134
     wget [OPTION]... [URL]...
 
135
 
 
136
   Wget will simply download all the URLs specified on the command
 
137
line.  URL is a "Uniform Resource Locator", as defined below.
 
138
 
 
139
   However, you may wish to change some of the default parameters of
 
140
Wget.  You can do it two ways: permanently, adding the appropriate
 
141
command to `.wgetrc' (*note Startup File::), or specifying it on the
 
142
command line.
 
143
 
 
144
* Menu:
 
145
 
 
146
* URL Format::
 
147
* Option Syntax::
 
148
* Basic Startup Options::
 
149
* Logging and Input File Options::
 
150
* Download Options::
 
151
* Directory Options::
 
152
* HTTP Options::
 
153
* FTP Options::
 
154
* Recursive Retrieval Options::
 
155
* Recursive Accept/Reject Options::
 
156
 
 
157
 
 
158
File: wget.info,  Node: URL Format,  Next: Option Syntax,  Prev: Invoking,  Up: Invoking
 
159
 
 
160
URL Format
 
161
==========
 
162
 
 
163
   "URL" is an acronym for Uniform Resource Locator.  A uniform
 
164
resource locator is a compact string representation for a resource
 
165
available via the Internet.  Wget recognizes the URL syntax as per
 
166
RFC1738.  This is the most widely used form (square brackets denote
 
167
optional parts):
 
168
 
 
169
     http://host[:port]/directory/file
 
170
     ftp://host[:port]/directory/file
 
171
 
 
172
   You can also encode your username and password within a URL:
 
173
 
 
174
     ftp://user:password@host/path
 
175
     http://user:password@host/path
 
176
 
 
177
   Either USER or PASSWORD, or both, may be left out.  If you leave out
 
178
either the HTTP username or password, no authentication will be sent.
 
179
If you leave out the FTP username, `anonymous' will be used.  If you
 
180
leave out the FTP password, your email address will be supplied as a
 
181
default password.(1)
 
182
 
 
183
   *Important Note*: if you specify a password-containing URL on the
 
184
command line, the username and password will be plainly visible to all
 
185
users on the system, by way of `ps'.  On multi-user systems, this is a
 
186
big security risk.  To work around it, use `wget -i -' and feed the
 
187
URLs to Wget's standard input, each on a separate line, terminated by
 
188
`C-d'.
 
189
 
 
190
   You can encode unsafe characters in a URL as `%xy', `xy' being the
 
191
hexadecimal representation of the character's ASCII value.  Some common
 
192
unsafe characters include `%' (quoted as `%25'), `:' (quoted as `%3A'),
 
193
and `@' (quoted as `%40').  Refer to RFC1738 for a comprehensive list
 
194
of unsafe characters.
 
195
 
 
196
   Wget also supports the `type' feature for FTP URLs.  By default, FTP
 
197
documents are retrieved in the binary mode (type `i'), which means that
 
198
they are downloaded unchanged.  Another useful mode is the `a'
 
199
("ASCII") mode, which converts the line delimiters between the
 
200
different operating systems, and is thus useful for text files.  Here
 
201
is an example:
 
202
 
 
203
     ftp://host/directory/file;type=a
 
204
 
 
205
   Two alternative variants of URL specification are also supported,
 
206
because of historical (hysterical?) reasons and their widespreaded use.
 
207
 
 
208
   FTP-only syntax (supported by `NcFTP'):
 
209
     host:/dir/file
 
210
 
 
211
   HTTP-only syntax (introduced by `Netscape'):
 
212
     host[:port]/dir/file
 
213
 
 
214
   These two alternative forms are deprecated, and may cease being
 
215
supported in the future.
 
216
 
 
217
   If you do not understand the difference between these notations, or
 
218
do not know which one to use, just use the plain ordinary format you use
 
219
with your favorite browser, like `Lynx' or `Netscape'.
 
220
 
 
221
   ---------- Footnotes ----------
 
222
 
 
223
   (1) If you have a `.netrc' file in your home directory, password
 
224
will also be searched for there.
 
225
 
 
226
 
 
227
File: wget.info,  Node: Option Syntax,  Next: Basic Startup Options,  Prev: URL Format,  Up: Invoking
 
228
 
 
229
Option Syntax
 
230
=============
 
231
 
 
232
   Since Wget uses GNU getopts to process its arguments, every option
 
233
has a short form and a long form.  Long options are more convenient to
 
234
remember, but take time to type.  You may freely mix different option
 
235
styles, or specify options after the command-line arguments.  Thus you
 
236
may write:
 
237
 
 
238
     wget -r --tries=10 http://fly.srk.fer.hr/ -o log
 
239
 
 
240
   The space between the option accepting an argument and the argument
 
241
may be omitted.  Instead `-o log' you can write `-olog'.
 
242
 
 
243
   You may put several options that do not require arguments together,
 
244
like:
 
245
 
 
246
     wget -drc URL
 
247
 
 
248
   This is a complete equivalent of:
 
249
 
 
250
     wget -d -r -c URL
 
251
 
 
252
   Since the options can be specified after the arguments, you may
 
253
terminate them with `--'.  So the following will try to download URL
 
254
`-x', reporting failure to `log':
 
255
 
 
256
     wget -o log -- -x
 
257
 
 
258
   The options that accept comma-separated lists all respect the
 
259
convention that specifying an empty list clears its value.  This can be
 
260
useful to clear the `.wgetrc' settings.  For instance, if your `.wgetrc'
 
261
sets `exclude_directories' to `/cgi-bin', the following example will
 
262
first reset it, and then set it to exclude `/~nobody' and `/~somebody'.
 
263
You can also clear the lists in `.wgetrc' (*note Wgetrc Syntax::).
 
264
 
 
265
     wget -X '' -X /~nobody,/~somebody
 
266
 
 
267
 
 
268
File: wget.info,  Node: Basic Startup Options,  Next: Logging and Input File Options,  Prev: Option Syntax,  Up: Invoking
 
269
 
 
270
Basic Startup Options
 
271
=====================
 
272
 
 
273
`-V'
 
274
`--version'
 
275
     Display the version of Wget.
 
276
 
 
277
`-h'
 
278
`--help'
 
279
     Print a help message describing all of Wget's command-line options.
 
280
 
 
281
`-b'
 
282
`--background'
 
283
     Go to background immediately after startup.  If no output file is
 
284
     specified via the `-o', output is redirected to `wget-log'.
 
285
 
 
286
`-e COMMAND'
 
287
`--execute COMMAND'
 
288
     Execute COMMAND as if it were a part of `.wgetrc' (*note Startup
 
289
     File::).  A command thus invoked will be executed _after_ the
 
290
     commands in `.wgetrc', thus taking precedence over them.
 
291
 
 
292
 
 
293
File: wget.info,  Node: Logging and Input File Options,  Next: Download Options,  Prev: Basic Startup Options,  Up: Invoking
 
294
 
 
295
Logging and Input File Options
 
296
==============================
 
297
 
 
298
`-o LOGFILE'
 
299
`--output-file=LOGFILE'
 
300
     Log all messages to LOGFILE.  The messages are normally reported
 
301
     to standard error.
 
302
 
 
303
`-a LOGFILE'
 
304
`--append-output=LOGFILE'
 
305
     Append to LOGFILE.  This is the same as `-o', only it appends to
 
306
     LOGFILE instead of overwriting the old log file.  If LOGFILE does
 
307
     not exist, a new file is created.
 
308
 
 
309
`-d'
 
310
`--debug'
 
311
     Turn on debug output, meaning various information important to the
 
312
     developers of Wget if it does not work properly.  Your system
 
313
     administrator may have chosen to compile Wget without debug
 
314
     support, in which case `-d' will not work.  Please note that
 
315
     compiling with debug support is always safe--Wget compiled with
 
316
     the debug support will _not_ print any debug info unless requested
 
317
     with `-d'.  *Note Reporting Bugs::, for more information on how to
 
318
     use `-d' for sending bug reports.
 
319
 
 
320
`-q'
 
321
`--quiet'
 
322
     Turn off Wget's output.
 
323
 
 
324
`-v'
 
325
`--verbose'
 
326
     Turn on verbose output, with all the available data.  The default
 
327
     output is verbose.
 
328
 
 
329
`-nv'
 
330
`--non-verbose'
 
331
     Non-verbose output--turn off verbose without being completely quiet
 
332
     (use `-q' for that), which means that error messages and basic
 
333
     information still get printed.
 
334
 
 
335
`-i FILE'
 
336
`--input-file=FILE'
 
337
     Read URLs from FILE, in which case no URLs need to be on the
 
338
     command line.  If there are URLs both on the command line and in
 
339
     an input file, those on the command lines will be the first ones to
 
340
     be retrieved.  The FILE need not be an HTML document (but no harm
 
341
     if it is)--it is enough if the URLs are just listed sequentially.
 
342
 
 
343
     However, if you specify `--force-html', the document will be
 
344
     regarded as `html'.  In that case you may have problems with
 
345
     relative links, which you can solve either by adding `<base
 
346
     href="URL">' to the documents or by specifying `--base=URL' on the
 
347
     command line.
 
348
 
 
349
`-F'
 
350
`--force-html'
 
351
     When input is read from a file, force it to be treated as an HTML
 
352
     file.  This enables you to retrieve relative links from existing
 
353
     HTML files on your local disk, by adding `<base href="URL">' to
 
354
     HTML, or using the `--base' command-line option.
 
355
 
 
356
`-B URL'
 
357
`--base=URL'
 
358
     When used in conjunction with `-F', prepends URL to relative links
 
359
     in the file specified by `-i'.
 
360
 
 
361
 
 
362
File: wget.info,  Node: Download Options,  Next: Directory Options,  Prev: Logging and Input File Options,  Up: Invoking
 
363
 
 
364
Download Options
 
365
================
 
366
 
 
367
`--bind-address=ADDRESS'
 
368
     When making client TCP/IP connections, `bind()' to ADDRESS on the
 
369
     local machine.  ADDRESS may be specified as a hostname or IP
 
370
     address.  This option can be useful if your machine is bound to
 
371
     multiple IPs.
 
372
 
 
373
`-t NUMBER'
 
374
`--tries=NUMBER'
 
375
     Set number of retries to NUMBER.  Specify 0 or `inf' for infinite
 
376
     retrying.  The default is to retry 20 times, with the exception of
 
377
     fatal errors like "connection refused" or "not found" (404), which
 
378
     are not retried.
 
379
 
 
380
`-O FILE'
 
381
`--output-document=FILE'
 
382
     The documents will not be written to the appropriate files, but
 
383
     all will be concatenated together and written to FILE.  If FILE
 
384
     already exists, it will be overwritten.  If the FILE is `-', the
 
385
     documents will be written to standard output.  Including this
 
386
     option automatically sets the number of tries to 1.
 
387
 
 
388
`-nc'
 
389
`--no-clobber'
 
390
     If a file is downloaded more than once in the same directory,
 
391
     Wget's behavior depends on a few options, including `-nc'.  In
 
392
     certain cases, the local file will be "clobbered", or overwritten,
 
393
     upon repeated download.  In other cases it will be preserved.
 
394
 
 
395
     When running Wget without `-N', `-nc', or `-r', downloading the
 
396
     same file in the same directory will result in the original copy
 
397
     of FILE being preserved and the second copy being named `FILE.1'.
 
398
     If that file is downloaded yet again, the third copy will be named
 
399
     `FILE.2', and so on.  When `-nc' is specified, this behavior is
 
400
     suppressed, and Wget will refuse to download newer copies of
 
401
     `FILE'.  Therefore, "`no-clobber'" is actually a misnomer in this
 
402
     mode--it's not clobbering that's prevented (as the numeric
 
403
     suffixes were already preventing clobbering), but rather the
 
404
     multiple version saving that's prevented.
 
405
 
 
406
     When running Wget with `-r', but without `-N' or `-nc',
 
407
     re-downloading a file will result in the new copy simply
 
408
     overwriting the old.  Adding `-nc' will prevent this behavior,
 
409
     instead causing the original version to be preserved and any newer
 
410
     copies on the server to be ignored.
 
411
 
 
412
     When running Wget with `-N', with or without `-r', the decision as
 
413
     to whether or not to download a newer copy of a file depends on
 
414
     the local and remote timestamp and size of the file (*note
 
415
     Time-Stamping::).  `-nc' may not be specified at the same time as
 
416
     `-N'.
 
417
 
 
418
     Note that when `-nc' is specified, files with the suffixes `.html'
 
419
     or (yuck) `.htm' will be loaded from the local disk and parsed as
 
420
     if they had been retrieved from the Web.
 
421
 
 
422
`-c'
 
423
`--continue'
 
424
     Continue getting a partially-downloaded file.  This is useful when
 
425
     you want to finish up a download started by a previous instance of
 
426
     Wget, or by another program.  For instance:
 
427
 
 
428
          wget -c ftp://sunsite.doc.ic.ac.uk/ls-lR.Z
 
429
 
 
430
     If there is a file named `ls-lR.Z' in the current directory, Wget
 
431
     will assume that it is the first portion of the remote file, and
 
432
     will ask the server to continue the retrieval from an offset equal
 
433
     to the length of the local file.
 
434
 
 
435
     Note that you don't need to specify this option if you just want
 
436
     the current invocation of Wget to retry downloading a file should
 
437
     the connection be lost midway through.  This is the default
 
438
     behavior.  `-c' only affects resumption of downloads started
 
439
     _prior_ to this invocation of Wget, and whose local files are
 
440
     still sitting around.
 
441
 
 
442
     Without `-c', the previous example would just download the remote
 
443
     file to `ls-lR.Z.1', leaving the truncated `ls-lR.Z' file alone.
 
444
 
 
445
     Beginning with Wget 1.7, if you use `-c' on a non-empty file, and
 
446
     it turns out that the server does not support continued
 
447
     downloading, Wget will refuse to start the download from scratch,
 
448
     which would effectively ruin existing contents.  If you really
 
449
     want the download to start from scratch, remove the file.
 
450
 
 
451
     Also beginning with Wget 1.7, if you use `-c' on a file which is of
 
452
     equal size as the one on the server, Wget will refuse to download
 
453
     the file and print an explanatory message.  The same happens when
 
454
     the file is smaller on the server than locally (presumably because
 
455
     it was changed on the server since your last download
 
456
     attempt)--because "continuing" is not meaningful, no download
 
457
     occurs.
 
458
 
 
459
     On the other side of the coin, while using `-c', any file that's
 
460
     bigger on the server than locally will be considered an incomplete
 
461
     download and only `(length(remote) - length(local))' bytes will be
 
462
     downloaded and tacked onto the end of the local file.  This
 
463
     behavior can be desirable in certain cases--for instance, you can
 
464
     use `wget -c' to download just the new portion that's been
 
465
     appended to a data collection or log file.
 
466
 
 
467
     However, if the file is bigger on the server because it's been
 
468
     _changed_, as opposed to just _appended_ to, you'll end up with a
 
469
     garbled file.  Wget has no way of verifying that the local file is
 
470
     really a valid prefix of the remote file.  You need to be
 
471
     especially careful of this when using `-c' in conjunction with
 
472
     `-r', since every file will be considered as an "incomplete
 
473
     download" candidate.
 
474
 
 
475
     Another instance where you'll get a garbled file if you try to use
 
476
     `-c' is if you have a lame HTTP proxy that inserts a "transfer
 
477
     interrupted" string into the local file.  In the future a
 
478
     "rollback" option may be added to deal with this case.
 
479
 
 
480
     Note that `-c' only works with FTP servers and with HTTP servers
 
481
     that support the `Range' header.
 
482
 
 
483
`--progress=TYPE'
 
484
     Select the type of the progress indicator you wish to use.  Legal
 
485
     indicators are "dot" and "bar".
 
486
 
 
487
     The "bar" indicator is used by default.  It draws an ASCII progress
 
488
     bar graphics (a.k.a "thermometer" display) indicating the status of
 
489
     retrieval.  If the output is not a TTY, the "dot" bar will be used
 
490
     by default.
 
491
 
 
492
     Use `--progress=dot' to switch to the "dot" display.  It traces
 
493
     the retrieval by printing dots on the screen, each dot
 
494
     representing a fixed amount of downloaded data.
 
495
 
 
496
     When using the dotted retrieval, you may also set the "style" by
 
497
     specifying the type as `dot:STYLE'.  Different styles assign
 
498
     different meaning to one dot.  With the `default' style each dot
 
499
     represents 1K, there are ten dots in a cluster and 50 dots in a
 
500
     line.  The `binary' style has a more "computer"-like
 
501
     orientation--8K dots, 16-dots clusters and 48 dots per line (which
 
502
     makes for 384K lines).  The `mega' style is suitable for
 
503
     downloading very large files--each dot represents 64K retrieved,
 
504
     there are eight dots in a cluster, and 48 dots on each line (so
 
505
     each line contains 3M).
 
506
 
 
507
     Note that you can set the default style using the `progress'
 
508
     command in `.wgetrc'.  That setting may be overridden from the
 
509
     command line.  The exception is that, when the output is not a
 
510
     TTY, the "dot" progress will be favored over "bar".  To force the
 
511
     bar output, use `--progress=bar:force'.
 
512
 
 
513
`-N'
 
514
`--timestamping'
 
515
     Turn on time-stamping.  *Note Time-Stamping::, for details.
 
516
 
 
517
`-S'
 
518
`--server-response'
 
519
     Print the headers sent by HTTP servers and responses sent by FTP
 
520
     servers.
 
521
 
 
522
`--spider'
 
523
     When invoked with this option, Wget will behave as a Web "spider",
 
524
     which means that it will not download the pages, just check that
 
525
     they are there.  For example, you can use Wget to check your
 
526
     bookmarks:
 
527
 
 
528
          wget --spider --force-html -i bookmarks.html
 
529
 
 
530
     This feature needs much more work for Wget to get close to the
 
531
     functionality of real web spiders.
 
532
 
 
533
`-T seconds'
 
534
`--timeout=SECONDS'
 
535
     Set the network timeout to SECONDS seconds.  This is equivalent to
 
536
     specifying `--dns-timeout', `--connect-timeout', and
 
537
     `--read-timeout', all at the same time.
 
538
 
 
539
     Whenever Wget connects to or reads from a remote host, it checks
 
540
     for a timeout and aborts the operation if the time expires.  This
 
541
     prevents anomalous occurrences such as hanging reads or infinite
 
542
     connects.  The only timeout enabled by default is a 900-second
 
543
     timeout for reading.  Setting timeout to 0 disables checking for
 
544
     timeouts.
 
545
 
 
546
     Unless you know what you are doing, it is best not to set any of
 
547
     the timeout-related options.
 
548
 
 
549
`--dns-timeout=SECONDS'
 
550
     Set the DNS lookup timeout to SECONDS seconds.  DNS lookups that
 
551
     don't complete within the specified time will fail.  By default,
 
552
     there is no timeout on DNS lookups, other than that implemented by
 
553
     system libraries.
 
554
 
 
555
`--connect-timeout=SECONDS'
 
556
     Set the connect timeout to SECONDS seconds.  TCP connections that
 
557
     take longer to establish will be aborted.  By default, there is no
 
558
     connect timeout, other than that implemented by system libraries.
 
559
 
 
560
`--read-timeout=SECONDS'
 
561
     Set the read (and write) timeout to SECONDS seconds.  Reads that
 
562
     take longer will fail.  The default value for read timeout is 900
 
563
     seconds.
 
564
 
 
565
`--limit-rate=AMOUNT'
 
566
     Limit the download speed to AMOUNT bytes per second.  Amount may
 
567
     be expressed in bytes, kilobytes with the `k' suffix, or megabytes
 
568
     with the `m' suffix.  For example, `--limit-rate=20k' will limit
 
569
     the retrieval rate to 20KB/s.  This kind of thing is useful when,
 
570
     for whatever reason, you don't want Wget to consume the entire
 
571
     available bandwidth.
 
572
 
 
573
     Note that Wget implements the limiting by sleeping the appropriate
 
574
     amount of time after a network read that took less time than
 
575
     specified by the rate.  Eventually this strategy causes the TCP
 
576
     transfer to slow down to approximately the specified rate.
 
577
     However, it may take some time for this balance to be achieved, so
 
578
     don't be surprised if limiting the rate doesn't work well with
 
579
     very small files.
 
580
 
 
581
`-w SECONDS'
 
582
`--wait=SECONDS'
 
583
     Wait the specified number of seconds between the retrievals.  Use
 
584
     of this option is recommended, as it lightens the server load by
 
585
     making the requests less frequent.  Instead of in seconds, the
 
586
     time can be specified in minutes using the `m' suffix, in hours
 
587
     using `h' suffix, or in days using `d' suffix.
 
588
 
 
589
     Specifying a large value for this option is useful if the network
 
590
     or the destination host is down, so that Wget can wait long enough
 
591
     to reasonably expect the network error to be fixed before the
 
592
     retry.
 
593
 
 
594
`--waitretry=SECONDS'
 
595
     If you don't want Wget to wait between _every_ retrieval, but only
 
596
     between retries of failed downloads, you can use this option.
 
597
     Wget will use "linear backoff", waiting 1 second after the first
 
598
     failure on a given file, then waiting 2 seconds after the second
 
599
     failure on that file, up to the maximum number of SECONDS you
 
600
     specify.  Therefore, a value of 10 will actually make Wget wait up
 
601
     to (1 + 2 + ... + 10) = 55 seconds per file.
 
602
 
 
603
     Note that this option is turned on by default in the global
 
604
     `wgetrc' file.
 
605
 
 
606
`--random-wait'
 
607
     Some web sites may perform log analysis to identify retrieval
 
608
     programs such as Wget by looking for statistically significant
 
609
     similarities in the time between requests. This option causes the
 
610
     time between requests to vary between 0 and 2 * WAIT seconds,
 
611
     where WAIT was specified using the `--wait' option, in order to
 
612
     mask Wget's presence from such analysis.
 
613
 
 
614
     A recent article in a publication devoted to development on a
 
615
     popular consumer platform provided code to perform this analysis
 
616
     on the fly.  Its author suggested blocking at the class C address
 
617
     level to ensure automated retrieval programs were blocked despite
 
618
     changing DHCP-supplied addresses.
 
619
 
 
620
     The `--random-wait' option was inspired by this ill-advised
 
621
     recommendation to block many unrelated users from a web site due
 
622
     to the actions of one.
 
623
 
 
624
`-Y on/off'
 
625
`--proxy=on/off'
 
626
     Turn proxy support on or off.  The proxy is on by default if the
 
627
     appropriate environment variable is defined.
 
628
 
 
629
     For more information about the use of proxies with Wget, *Note
 
630
     Proxies::.
 
631
 
 
632
`-Q QUOTA'
 
633
`--quota=QUOTA'
 
634
     Specify download quota for automatic retrievals.  The value can be
 
635
     specified in bytes (default), kilobytes (with `k' suffix), or
 
636
     megabytes (with `m' suffix).
 
637
 
 
638
     Note that quota will never affect downloading a single file.  So
 
639
     if you specify `wget -Q10k ftp://wuarchive.wustl.edu/ls-lR.gz',
 
640
     all of the `ls-lR.gz' will be downloaded.  The same goes even when
 
641
     several URLs are specified on the command-line.  However, quota is
 
642
     respected when retrieving either recursively, or from an input
 
643
     file.  Thus you may safely type `wget -Q2m -i sites'--download
 
644
     will be aborted when the quota is exceeded.
 
645
 
 
646
     Setting quota to 0 or to `inf' unlimits the download quota.
 
647
 
 
648
`--dns-cache=off'
 
649
     Turn off caching of DNS lookups.  Normally, Wget remembers the
 
650
     addresses it looked up from DNS so it doesn't have to repeatedly
 
651
     contact the DNS server for the same (typically small) set of
 
652
     addresses it retrieves from.  This cache exists in memory only; a
 
653
     new Wget run will contact DNS again.
 
654
 
 
655
     However, in some cases it is not desirable to cache host names,
 
656
     even for the duration of a short-running application like Wget.
 
657
     For example, some HTTP servers are hosted on machines with
 
658
     dynamically allocated IP addresses that change from time to time.
 
659
     Their DNS entries are updated along with each change.  When Wget's
 
660
     download from such a host gets interrupted by IP address change,
 
661
     Wget retries the download, but (due to DNS caching) it contacts
 
662
     the old address.  With the DNS cache turned off, Wget will repeat
 
663
     the DNS lookup for every connect and will thus get the correct
 
664
     dynamic address every time--at the cost of additional DNS lookups
 
665
     where they're probably not needed.
 
666
 
 
667
     If you don't understand the above description, you probably won't
 
668
     need this option.
 
669
 
 
670
`--restrict-file-names=MODE'
 
671
     Change which characters found in remote URLs may show up in local
 
672
     file names generated from those URLs.  Characters that are
 
673
     "restricted" by this option are escaped, i.e. replaced with `%HH',
 
674
     where `HH' is the hexadecimal number that corresponds to the
 
675
     restricted character.
 
676
 
 
677
     By default, Wget escapes the characters that are not valid as part
 
678
     of file names on your operating system, as well as control
 
679
     characters that are typically unprintable.  This option is useful
 
680
     for changing these defaults, either because you are downloading to
 
681
     a non-native partition, or because you want to disable escaping of
 
682
     the control characters.
 
683
 
 
684
     When mode is set to "unix", Wget escapes the character `/' and the
 
685
     control characters in the ranges 0-31 and 128-159.  This is the
 
686
     default on Unix-like OS'es.
 
687
 
 
688
     When mode is set to "windows", Wget escapes the characters `\',
 
689
     `|', `/', `:', `?', `"', `*', `<', `>', and the control characters
 
690
     in the ranges 0-31 and 128-159.  In addition to this, Wget in
 
691
     Windows mode uses `+' instead of `:' to separate host and port in
 
692
     local file names, and uses `@' instead of `?' to separate the
 
693
     query portion of the file name from the rest.  Therefore, a URL
 
694
     that would be saved as `www.xemacs.org:4300/search.pl?input=blah'
 
695
     in Unix mode would be saved as
 
696
     `www.xemacs.org+4300/search.pl@input=blah' in Windows mode.  This
 
697
     mode is the default on Windows.
 
698
 
 
699
     If you append `,nocontrol' to the mode, as in `unix,nocontrol',
 
700
     escaping of the control characters is also switched off.  You can
 
701
     use `--restrict-file-names=nocontrol' to turn off escaping of
 
702
     control characters without affecting the choice of the OS to use
 
703
     as file name restriction mode.
 
704
 
 
705
 
 
706
File: wget.info,  Node: Directory Options,  Next: HTTP Options,  Prev: Download Options,  Up: Invoking
 
707
 
 
708
Directory Options
 
709
=================
 
710
 
 
711
`-nd'
 
712
`--no-directories'
 
713
     Do not create a hierarchy of directories when retrieving
 
714
     recursively.  With this option turned on, all files will get saved
 
715
     to the current directory, without clobbering (if a name shows up
 
716
     more than once, the filenames will get extensions `.n').
 
717
 
 
718
`-x'
 
719
`--force-directories'
 
720
     The opposite of `-nd'--create a hierarchy of directories, even if
 
721
     one would not have been created otherwise.  E.g. `wget -x
 
722
     http://fly.srk.fer.hr/robots.txt' will save the downloaded file to
 
723
     `fly.srk.fer.hr/robots.txt'.
 
724
 
 
725
`-nH'
 
726
`--no-host-directories'
 
727
     Disable generation of host-prefixed directories.  By default,
 
728
     invoking Wget with `-r http://fly.srk.fer.hr/' will create a
 
729
     structure of directories beginning with `fly.srk.fer.hr/'.  This
 
730
     option disables such behavior.
 
731
 
 
732
`--cut-dirs=NUMBER'
 
733
     Ignore NUMBER directory components.  This is useful for getting a
 
734
     fine-grained control over the directory where recursive retrieval
 
735
     will be saved.
 
736
 
 
737
     Take, for example, the directory at
 
738
     `ftp://ftp.xemacs.org/pub/xemacs/'.  If you retrieve it with `-r',
 
739
     it will be saved locally under `ftp.xemacs.org/pub/xemacs/'.
 
740
     While the `-nH' option can remove the `ftp.xemacs.org/' part, you
 
741
     are still stuck with `pub/xemacs'.  This is where `--cut-dirs'
 
742
     comes in handy; it makes Wget not "see" NUMBER remote directory
 
743
     components.  Here are several examples of how `--cut-dirs' option
 
744
     works.
 
745
 
 
746
          No options        -> ftp.xemacs.org/pub/xemacs/
 
747
          -nH               -> pub/xemacs/
 
748
          -nH --cut-dirs=1  -> xemacs/
 
749
          -nH --cut-dirs=2  -> .
 
750
          
 
751
          --cut-dirs=1      -> ftp.xemacs.org/xemacs/
 
752
          ...
 
753
 
 
754
     If you just want to get rid of the directory structure, this
 
755
     option is similar to a combination of `-nd' and `-P'.  However,
 
756
     unlike `-nd', `--cut-dirs' does not lose with subdirectories--for
 
757
     instance, with `-nH --cut-dirs=1', a `beta/' subdirectory will be
 
758
     placed to `xemacs/beta', as one would expect.
 
759
 
 
760
`-P PREFIX'
 
761
`--directory-prefix=PREFIX'
 
762
     Set directory prefix to PREFIX.  The "directory prefix" is the
 
763
     directory where all other files and subdirectories will be saved
 
764
     to, i.e. the top of the retrieval tree.  The default is `.' (the
 
765
     current directory).
 
766
 
 
767
 
 
768
File: wget.info,  Node: HTTP Options,  Next: FTP Options,  Prev: Directory Options,  Up: Invoking
 
769
 
 
770
HTTP Options
 
771
============
 
772
 
 
773
`-E'
 
774
`--html-extension'
 
775
     If a file of type `application/xhtml+xml' or `text/html' is
 
776
     downloaded and the URL does not end with the regexp
 
777
     `\.[Hh][Tt][Mm][Ll]?', this option will cause the suffix `.html'
 
778
     to be appended to the local filename.  This is useful, for
 
779
     instance, when you're mirroring a remote site that uses `.asp'
 
780
     pages, but you want the mirrored pages to be viewable on your
 
781
     stock Apache server.  Another good use for this is when you're
 
782
     downloading CGI-generated materials.  A URL like
 
783
     `http://site.com/article.cgi?25' will be saved as
 
784
     `article.cgi?25.html'.
 
785
 
 
786
     Note that filenames changed in this way will be re-downloaded
 
787
     every time you re-mirror a site, because Wget can't tell that the
 
788
     local `X.html' file corresponds to remote URL `X' (since it
 
789
     doesn't yet know that the URL produces output of type `text/html'
 
790
     or `application/xhtml+xml'.  To prevent this re-downloading, you
 
791
     must use `-k' and `-K' so that the original version of the file
 
792
     will be saved as `X.orig' (*note Recursive Retrieval Options::).
 
793
 
 
794
`--http-user=USER'
 
795
`--http-passwd=PASSWORD'
 
796
     Specify the username USER and password PASSWORD on an HTTP server.
 
797
     According to the type of the challenge, Wget will encode them
 
798
     using either the `basic' (insecure) or the `digest' authentication
 
799
     scheme.
 
800
 
 
801
     Another way to specify username and password is in the URL itself
 
802
     (*note URL Format::).  Either method reveals your password to
 
803
     anyone who bothers to run `ps'.  To prevent the passwords from
 
804
     being seen, store them in `.wgetrc' or `.netrc', and make sure to
 
805
     protect those files from other users with `chmod'.  If the
 
806
     passwords are really important, do not leave them lying in those
 
807
     files either--edit the files and delete them after Wget has
 
808
     started the download.
 
809
 
 
810
     For more information about security issues with Wget, *Note
 
811
     Security Considerations::.
 
812
 
 
813
`-C on/off'
 
814
`--cache=on/off'
 
815
     When set to off, disable server-side cache.  In this case, Wget
 
816
     will send the remote server an appropriate directive (`Pragma:
 
817
     no-cache') to get the file from the remote service, rather than
 
818
     returning the cached version.  This is especially useful for
 
819
     retrieving and flushing out-of-date documents on proxy servers.
 
820
 
 
821
     Caching is allowed by default.
 
822
 
 
823
`--cookies=on/off'
 
824
     When set to off, disable the use of cookies.  Cookies are a
 
825
     mechanism for maintaining server-side state.  The server sends the
 
826
     client a cookie using the `Set-Cookie' header, and the client
 
827
     responds with the same cookie upon further requests.  Since
 
828
     cookies allow the server owners to keep track of visitors and for
 
829
     sites to exchange this information, some consider them a breach of
 
830
     privacy.  The default is to use cookies; however, _storing_
 
831
     cookies is not on by default.
 
832
 
 
833
`--load-cookies FILE'
 
834
     Load cookies from FILE before the first HTTP retrieval.  FILE is a
 
835
     textual file in the format originally used by Netscape's
 
836
     `cookies.txt' file.
 
837
 
 
838
     You will typically use this option when mirroring sites that
 
839
     require that you be logged in to access some or all of their
 
840
     content.  The login process typically works by the web server
 
841
     issuing an HTTP cookie upon receiving and verifying your
 
842
     credentials.  The cookie is then resent by the browser when
 
843
     accessing that part of the site, and so proves your identity.
 
844
 
 
845
     Mirroring such a site requires Wget to send the same cookies your
 
846
     browser sends when communicating with the site.  This is achieved
 
847
     by `--load-cookies'--simply point Wget to the location of the
 
848
     `cookies.txt' file, and it will send the same cookies your browser
 
849
     would send in the same situation.  Different browsers keep textual
 
850
     cookie files in different locations:
 
851
 
 
852
    Netscape 4.x.
 
853
          The cookies are in `~/.netscape/cookies.txt'.
 
854
 
 
855
    Mozilla and Netscape 6.x.
 
856
          Mozilla's cookie file is also named `cookies.txt', located
 
857
          somewhere under `~/.mozilla', in the directory of your
 
858
          profile.  The full path usually ends up looking somewhat like
 
859
          `~/.mozilla/default/SOME-WEIRD-STRING/cookies.txt'.
 
860
 
 
861
    Internet Explorer.
 
862
          You can produce a cookie file Wget can use by using the File
 
863
          menu, Import and Export, Export Cookies.  This has been
 
864
          tested with Internet Explorer 5; it is not guaranteed to work
 
865
          with earlier versions.
 
866
 
 
867
    Other browsers.
 
868
          If you are using a different browser to create your cookies,
 
869
          `--load-cookies' will only work if you can locate or produce a
 
870
          cookie file in the Netscape format that Wget expects.
 
871
 
 
872
     If you cannot use `--load-cookies', there might still be an
 
873
     alternative.  If your browser supports a "cookie manager", you can
 
874
     use it to view the cookies used when accessing the site you're
 
875
     mirroring.  Write down the name and value of the cookie, and
 
876
     manually instruct Wget to send those cookies, bypassing the
 
877
     "official" cookie support:
 
878
 
 
879
          wget --cookies=off --header "Cookie: NAME=VALUE"
 
880
 
 
881
`--save-cookies FILE'
 
882
     Save cookies to FILE at the end of session.  Cookies whose expiry
 
883
     time is not specified, or those that have already expired, are not
 
884
     saved.
 
885
 
 
886
`--ignore-length'
 
887
     Unfortunately, some HTTP servers (CGI programs, to be more
 
888
     precise) send out bogus `Content-Length' headers, which makes Wget
 
889
     go wild, as it thinks not all the document was retrieved.  You can
 
890
     spot this syndrome if Wget retries getting the same document again
 
891
     and again, each time claiming that the (otherwise normal)
 
892
     connection has closed on the very same byte.
 
893
 
 
894
     With this option, Wget will ignore the `Content-Length' header--as
 
895
     if it never existed.
 
896
 
 
897
`--header=ADDITIONAL-HEADER'
 
898
     Define an ADDITIONAL-HEADER to be passed to the HTTP servers.
 
899
     Headers must contain a `:' preceded by one or more non-blank
 
900
     characters, and must not contain newlines.
 
901
 
 
902
     You may define more than one additional header by specifying
 
903
     `--header' more than once.
 
904
 
 
905
          wget --header='Accept-Charset: iso-8859-2' \
 
906
               --header='Accept-Language: hr'        \
 
907
                 http://fly.srk.fer.hr/
 
908
 
 
909
     Specification of an empty string as the header value will clear all
 
910
     previous user-defined headers.
 
911
 
 
912
`--proxy-user=USER'
 
913
`--proxy-passwd=PASSWORD'
 
914
     Specify the username USER and password PASSWORD for authentication
 
915
     on a proxy server.  Wget will encode them using the `basic'
 
916
     authentication scheme.
 
917
 
 
918
     Security considerations similar to those with `--http-passwd'
 
919
     pertain here as well.
 
920
 
 
921
`--referer=URL'
 
922
     Include `Referer: URL' header in HTTP request.  Useful for
 
923
     retrieving documents with server-side processing that assume they
 
924
     are always being retrieved by interactive web browsers and only
 
925
     come out properly when Referer is set to one of the pages that
 
926
     point to them.
 
927
 
 
928
`-s'
 
929
`--save-headers'
 
930
     Save the headers sent by the HTTP server to the file, preceding the
 
931
     actual contents, with an empty line as the separator.
 
932
 
 
933
`-U AGENT-STRING'
 
934
`--user-agent=AGENT-STRING'
 
935
     Identify as AGENT-STRING to the HTTP server.
 
936
 
 
937
     The HTTP protocol allows the clients to identify themselves using a
 
938
     `User-Agent' header field.  This enables distinguishing the WWW
 
939
     software, usually for statistical purposes or for tracing of
 
940
     protocol violations.  Wget normally identifies as `Wget/VERSION',
 
941
     VERSION being the current version number of Wget.
 
942
 
 
943
     However, some sites have been known to impose the policy of
 
944
     tailoring the output according to the `User-Agent'-supplied
 
945
     information.  While conceptually this is not such a bad idea, it
 
946
     has been abused by servers denying information to clients other
 
947
     than `Mozilla' or Microsoft `Internet Explorer'.  This option
 
948
     allows you to change the `User-Agent' line issued by Wget.  Use of
 
949
     this option is discouraged, unless you really know what you are
 
950
     doing.
 
951
 
 
952
`--post-data=STRING'
 
953
`--post-file=FILE'
 
954
     Use POST as the method for all HTTP requests and send the
 
955
     specified data in the request body.  `--post-data' sends STRING as
 
956
     data, whereas `--post-file' sends the contents of FILE.  Other than
 
957
     that, they work in exactly the same way.
 
958
 
 
959
     Please be aware that Wget needs to know the size of the POST data
 
960
     in advance.  Therefore the argument to `--post-file' must be a
 
961
     regular file; specifying a FIFO or something like `/dev/stdin'
 
962
     won't work.  It's not quite clear how to work around this
 
963
     limitation inherent in HTTP/1.0.  Although HTTP/1.1 introduces
 
964
     "chunked" transfer that doesn't require knowing the request length
 
965
     in advance, a client can't use chunked unless it knows it's
 
966
     talking to an HTTP/1.1 server.  And it can't know that until it
 
967
     receives a response, which in turn requires the request to have
 
968
     been completed - a chicken-and-egg problem.
 
969
 
 
970
     Note: if Wget is redirected after the POST request is completed,
 
971
     it will not send the POST data to the redirected URL.  This is
 
972
     because URLs that process POST often respond with a redirection to
 
973
     a regular page (although that's technically disallowed), which
 
974
     does not desire or accept POST.  It is not yet clear that this
 
975
     behavior is optimal; if it doesn't work out, it will be changed.
 
976
 
 
977
     This example shows how to log to a server using POST and then
 
978
     proceed to download the desired pages, presumably only accessible
 
979
     to authorized users:
 
980
 
 
981
          # Log in to the server.  This can be done only once.
 
982
          wget --save-cookies cookies.txt \
 
983
               --post-data 'user=foo&password=bar' \
 
984
               http://server.com/auth.php
 
985
          
 
986
          # Now grab the page or pages we care about.
 
987
          wget --load-cookies cookies.txt \
 
988
               -p http://server.com/interesting/article.php
 
989
 
 
990
 
 
991
File: wget.info,  Node: FTP Options,  Next: Recursive Retrieval Options,  Prev: HTTP Options,  Up: Invoking
 
992
 
 
993
FTP Options
 
994
===========
 
995
 
 
996
`-nr'
 
997
`--dont-remove-listing'
 
998
     Don't remove the temporary `.listing' files generated by FTP
 
999
     retrievals.  Normally, these files contain the raw directory
 
1000
     listings received from FTP servers.  Not removing them can be
 
1001
     useful for debugging purposes, or when you want to be able to
 
1002
     easily check on the contents of remote server directories (e.g. to
 
1003
     verify that a mirror you're running is complete).
 
1004
 
 
1005
     Note that even though Wget writes to a known filename for this
 
1006
     file, this is not a security hole in the scenario of a user making
 
1007
     `.listing' a symbolic link to `/etc/passwd' or something and
 
1008
     asking `root' to run Wget in his or her directory.  Depending on
 
1009
     the options used, either Wget will refuse to write to `.listing',
 
1010
     making the globbing/recursion/time-stamping operation fail, or the
 
1011
     symbolic link will be deleted and replaced with the actual
 
1012
     `.listing' file, or the listing will be written to a
 
1013
     `.listing.NUMBER' file.
 
1014
 
 
1015
     Even though this situation isn't a problem, though, `root' should
 
1016
     never run Wget in a non-trusted user's directory.  A user could do
 
1017
     something as simple as linking `index.html' to `/etc/passwd' and
 
1018
     asking `root' to run Wget with `-N' or `-r' so the file will be
 
1019
     overwritten.
 
1020
 
 
1021
`-g on/off'
 
1022
`--glob=on/off'
 
1023
     Turn FTP globbing on or off.  Globbing means you may use the
 
1024
     shell-like special characters ("wildcards"), like `*', `?', `['
 
1025
     and `]' to retrieve more than one file from the same directory at
 
1026
     once, like:
 
1027
 
 
1028
          wget ftp://gnjilux.srk.fer.hr/*.msg
 
1029
 
 
1030
     By default, globbing will be turned on if the URL contains a
 
1031
     globbing character.  This option may be used to turn globbing on
 
1032
     or off permanently.
 
1033
 
 
1034
     You may have to quote the URL to protect it from being expanded by
 
1035
     your shell.  Globbing makes Wget look for a directory listing,
 
1036
     which is system-specific.  This is why it currently works only
 
1037
     with Unix FTP servers (and the ones emulating Unix `ls' output).
 
1038
 
 
1039
`--passive-ftp'
 
1040
     Use the "passive" FTP retrieval scheme, in which the client
 
1041
     initiates the data connection.  This is sometimes required for FTP
 
1042
     to work behind firewalls.
 
1043
 
 
1044
`--retr-symlinks'
 
1045
     Usually, when retrieving FTP directories recursively and a symbolic
 
1046
     link is encountered, the linked-to file is not downloaded.
 
1047
     Instead, a matching symbolic link is created on the local
 
1048
     filesystem.  The pointed-to file will not be downloaded unless
 
1049
     this recursive retrieval would have encountered it separately and
 
1050
     downloaded it anyway.
 
1051
 
 
1052
     When `--retr-symlinks' is specified, however, symbolic links are
 
1053
     traversed and the pointed-to files are retrieved.  At this time,
 
1054
     this option does not cause Wget to traverse symlinks to
 
1055
     directories and recurse through them, but in the future it should
 
1056
     be enhanced to do this.
 
1057
 
 
1058
     Note that when retrieving a file (not a directory) because it was
 
1059
     specified on the command-line, rather than because it was recursed
 
1060
     to, this option has no effect.  Symbolic links are always
 
1061
     traversed in this case.
 
1062