doc/ffmpeg-formats: Add documentation for 2 parameters that have been missing
[ffmpeg.git] / doc / muxers.texi
1 @chapter Muxers
2 @c man begin MUXERS
3
4 Muxers are configured elements in FFmpeg which allow writing
5 multimedia streams to a particular type of file.
6
7 When you configure your FFmpeg build, all the supported muxers
8 are enabled by default. You can list all available muxers using the
9 configure option @code{--list-muxers}.
10
11 You can disable all the muxers with the configure option
12 @code{--disable-muxers} and selectively enable / disable single muxers
13 with the options @code{--enable-muxer=@var{MUXER}} /
14 @code{--disable-muxer=@var{MUXER}}.
15
16 The option @code{-formats} of the ff* tools will display the list of
17 enabled muxers.
18
19 A description of some of the currently available muxers follows.
20
21 @anchor{aiff}
22 @section aiff
23
24 Audio Interchange File Format muxer.
25
26 It accepts the following options:
27
28 @table @option
29 @item write_id3v2
30 Enable ID3v2 tags writing when set to 1. Default is 0 (disabled).
31
32 @item id3v2_version
33 Select ID3v2 version to write. Currently only version 3 and 4 (aka.
34 ID3v2.3 and ID3v2.4) are supported. The default is version 4.
35
36 @end table
37
38 @anchor{crc}
39 @section crc
40
41 CRC (Cyclic Redundancy Check) testing format.
42
43 This muxer computes and prints the Adler-32 CRC of all the input audio
44 and video frames. By default audio frames are converted to signed
45 16-bit raw audio and video frames to raw video before computing the
46 CRC.
47
48 The output of the muxer consists of a single line of the form:
49 CRC=0x@var{CRC}, where @var{CRC} is a hexadecimal number 0-padded to
50 8 digits containing the CRC for all the decoded input frames.
51
52 For example to compute the CRC of the input, and store it in the file
53 @file{out.crc}:
54 @example
55 ffmpeg -i INPUT -f crc out.crc
56 @end example
57
58 You can print the CRC to stdout with the command:
59 @example
60 ffmpeg -i INPUT -f crc -
61 @end example
62
63 You can select the output format of each frame with @command{ffmpeg} by
64 specifying the audio and video codec and format. For example to
65 compute the CRC of the input audio converted to PCM unsigned 8-bit
66 and the input video converted to MPEG-2 video, use the command:
67 @example
68 ffmpeg -i INPUT -c:a pcm_u8 -c:v mpeg2video -f crc -
69 @end example
70
71 See also the @ref{framecrc} muxer.
72
73 @anchor{framecrc}
74 @section framecrc
75
76 Per-packet CRC (Cyclic Redundancy Check) testing format.
77
78 This muxer computes and prints the Adler-32 CRC for each audio
79 and video packet. By default audio frames are converted to signed
80 16-bit raw audio and video frames to raw video before computing the
81 CRC.
82
83 The output of the muxer consists of a line for each audio and video
84 packet of the form:
85 @example
86 @var{stream_index}, @var{packet_dts}, @var{packet_pts}, @var{packet_duration}, @var{packet_size}, 0x@var{CRC}
87 @end example
88
89 @var{CRC} is a hexadecimal number 0-padded to 8 digits containing the
90 CRC of the packet.
91
92 For example to compute the CRC of the audio and video frames in
93 @file{INPUT}, converted to raw audio and video packets, and store it
94 in the file @file{out.crc}:
95 @example
96 ffmpeg -i INPUT -f framecrc out.crc
97 @end example
98
99 To print the information to stdout, use the command:
100 @example
101 ffmpeg -i INPUT -f framecrc -
102 @end example
103
104 With @command{ffmpeg}, you can select the output format to which the
105 audio and video frames are encoded before computing the CRC for each
106 packet by specifying the audio and video codec. For example, to
107 compute the CRC of each decoded input audio frame converted to PCM
108 unsigned 8-bit and of each decoded input video frame converted to
109 MPEG-2 video, use the command:
110 @example
111 ffmpeg -i INPUT -c:a pcm_u8 -c:v mpeg2video -f framecrc -
112 @end example
113
114 See also the @ref{crc} muxer.
115
116 @anchor{framemd5}
117 @section framemd5
118
119 Per-packet MD5 testing format.
120
121 This muxer computes and prints the MD5 hash for each audio
122 and video packet. By default audio frames are converted to signed
123 16-bit raw audio and video frames to raw video before computing the
124 hash.
125
126 The output of the muxer consists of a line for each audio and video
127 packet of the form:
128 @example
129 @var{stream_index}, @var{packet_dts}, @var{packet_pts}, @var{packet_duration}, @var{packet_size}, @var{MD5}
130 @end example
131
132 @var{MD5} is a hexadecimal number representing the computed MD5 hash
133 for the packet.
134
135 For example to compute the MD5 of the audio and video frames in
136 @file{INPUT}, converted to raw audio and video packets, and store it
137 in the file @file{out.md5}:
138 @example
139 ffmpeg -i INPUT -f framemd5 out.md5
140 @end example
141
142 To print the information to stdout, use the command:
143 @example
144 ffmpeg -i INPUT -f framemd5 -
145 @end example
146
147 See also the @ref{md5} muxer.
148
149 @anchor{hls}
150 @section hls
151
152 Apple HTTP Live Streaming muxer that segments MPEG-TS according to
153 the HTTP Live Streaming specification.
154
155 It creates a playlist file and numbered segment files. The output
156 filename specifies the playlist filename; the segment filenames
157 receive the same basename as the playlist, a sequential number and
158 a .ts extension.
159
160 @example
161 ffmpeg -i in.nut out.m3u8
162 @end example
163
164 @table @option
165 @item -hls_time @var{seconds}
166 Set the segment length in seconds.
167 @item -hls_list_size @var{size}
168 Set the maximum number of playlist entries.
169 @item -hls_wrap @var{wrap}
170 Set the number after which index wraps.
171 @item -start_number @var{number}
172 Start the sequence from @var{number}.
173 @end table
174
175 @anchor{ico}
176 @section ico
177
178 ICO file muxer.
179
180 Microsoft's icon file format (ICO) has some strict limitations that should be noted:
181
182 @itemize
183 @item
184 Size cannot exceed 256 pixels in any dimension
185
186 @item
187 Only BMP and PNG images can be stored
188
189 @item
190 If a BMP image is used, it must be one of the following pixel formats:
191 @example
192 BMP Bit Depth      FFmpeg Pixel Format
193 1bit               pal8
194 4bit               pal8
195 8bit               pal8
196 16bit              rgb555le
197 24bit              bgr24
198 32bit              bgra
199 @end example
200
201 @item
202 If a BMP image is used, it must use the BITMAPINFOHEADER DIB header
203
204 @item
205 If a PNG image is used, it must use the rgba pixel format
206 @end itemize
207
208 @anchor{image2}
209 @section image2
210
211 Image file muxer.
212
213 The image file muxer writes video frames to image files.
214
215 The output filenames are specified by a pattern, which can be used to
216 produce sequentially numbered series of files.
217 The pattern may contain the string "%d" or "%0@var{N}d", this string
218 specifies the position of the characters representing a numbering in
219 the filenames. If the form "%0@var{N}d" is used, the string
220 representing the number in each filename is 0-padded to @var{N}
221 digits. The literal character '%' can be specified in the pattern with
222 the string "%%".
223
224 If the pattern contains "%d" or "%0@var{N}d", the first filename of
225 the file list specified will contain the number 1, all the following
226 numbers will be sequential.
227
228 The pattern may contain a suffix which is used to automatically
229 determine the format of the image files to write.
230
231 For example the pattern "img-%03d.bmp" will specify a sequence of
232 filenames of the form @file{img-001.bmp}, @file{img-002.bmp}, ...,
233 @file{img-010.bmp}, etc.
234 The pattern "img%%-%d.jpg" will specify a sequence of filenames of the
235 form @file{img%-1.jpg}, @file{img%-2.jpg}, ..., @file{img%-10.jpg},
236 etc.
237
238 The following example shows how to use @command{ffmpeg} for creating a
239 sequence of files @file{img-001.jpeg}, @file{img-002.jpeg}, ...,
240 taking one image every second from the input video:
241 @example
242 ffmpeg -i in.avi -vsync 1 -r 1 -f image2 'img-%03d.jpeg'
243 @end example
244
245 Note that with @command{ffmpeg}, if the format is not specified with the
246 @code{-f} option and the output filename specifies an image file
247 format, the image2 muxer is automatically selected, so the previous
248 command can be written as:
249 @example
250 ffmpeg -i in.avi -vsync 1 -r 1 'img-%03d.jpeg'
251 @end example
252
253 Note also that the pattern must not necessarily contain "%d" or
254 "%0@var{N}d", for example to create a single image file
255 @file{img.jpeg} from the input video you can employ the command:
256 @example
257 ffmpeg -i in.avi -f image2 -frames:v 1 img.jpeg
258 @end example
259
260 @table @option
261 @item -start_number @var{number}
262 Start the sequence from @var{number}.
263 @end table
264
265 The image muxer supports the .Y.U.V image file format. This format is
266 special in that that each image frame consists of three files, for
267 each of the YUV420P components. To read or write this image file format,
268 specify the name of the '.Y' file. The muxer will automatically open the
269 '.U' and '.V' files as required.
270
271 @anchor{md5}
272 @section md5
273
274 MD5 testing format.
275
276 This muxer computes and prints the MD5 hash of all the input audio
277 and video frames. By default audio frames are converted to signed
278 16-bit raw audio and video frames to raw video before computing the
279 hash.
280
281 The output of the muxer consists of a single line of the form:
282 MD5=@var{MD5}, where @var{MD5} is a hexadecimal number representing
283 the computed MD5 hash.
284
285 For example to compute the MD5 hash of the input converted to raw
286 audio and video, and store it in the file @file{out.md5}:
287 @example
288 ffmpeg -i INPUT -f md5 out.md5
289 @end example
290
291 You can print the MD5 to stdout with the command:
292 @example
293 ffmpeg -i INPUT -f md5 -
294 @end example
295
296 See also the @ref{framemd5} muxer.
297
298 @section MOV/MP4/ISMV
299
300 The mov/mp4/ismv muxer supports fragmentation. Normally, a MOV/MP4
301 file has all the metadata about all packets stored in one location
302 (written at the end of the file, it can be moved to the start for
303 better playback by adding @var{faststart} to the @var{movflags}, or
304 using the @command{qt-faststart} tool). A fragmented
305 file consists of a number of fragments, where packets and metadata
306 about these packets are stored together. Writing a fragmented
307 file has the advantage that the file is decodable even if the
308 writing is interrupted (while a normal MOV/MP4 is undecodable if
309 it is not properly finished), and it requires less memory when writing
310 very long files (since writing normal MOV/MP4 files stores info about
311 every single packet in memory until the file is closed). The downside
312 is that it is less compatible with other applications.
313
314 Fragmentation is enabled by setting one of the AVOptions that define
315 how to cut the file into fragments:
316
317 @table @option
318 @item -moov_size @var{bytes}
319 Reserves space for the moov atom at the beginning of the file instead of placing the
320 moov atom at the end. If the space reserved is insufficient, muxing will fail.
321 @item -movflags frag_keyframe
322 Start a new fragment at each video keyframe.
323 @item -frag_duration @var{duration}
324 Create fragments that are @var{duration} microseconds long.
325 @item -frag_size @var{size}
326 Create fragments that contain up to @var{size} bytes of payload data.
327 @item -movflags frag_custom
328 Allow the caller to manually choose when to cut fragments, by
329 calling @code{av_write_frame(ctx, NULL)} to write a fragment with
330 the packets written so far. (This is only useful with other
331 applications integrating libavformat, not from @command{ffmpeg}.)
332 @item -min_frag_duration @var{duration}
333 Don't create fragments that are shorter than @var{duration} microseconds long.
334 @end table
335
336 If more than one condition is specified, fragments are cut when
337 one of the specified conditions is fulfilled. The exception to this is
338 @code{-min_frag_duration}, which has to be fulfilled for any of the other
339 conditions to apply.
340
341 Additionally, the way the output file is written can be adjusted
342 through a few other options:
343
344 @table @option
345 @item -movflags empty_moov
346 Write an initial moov atom directly at the start of the file, without
347 describing any samples in it. Generally, an mdat/moov pair is written
348 at the start of the file, as a normal MOV/MP4 file, containing only
349 a short portion of the file. With this option set, there is no initial
350 mdat atom, and the moov atom only describes the tracks but has
351 a zero duration.
352
353 Files written with this option set do not work in QuickTime.
354 This option is implicitly set when writing ismv (Smooth Streaming) files.
355 @item -movflags separate_moof
356 Write a separate moof (movie fragment) atom for each track. Normally,
357 packets for all tracks are written in a moof atom (which is slightly
358 more efficient), but with this option set, the muxer writes one moof/mdat
359 pair for each track, making it easier to separate tracks.
360
361 This option is implicitly set when writing ismv (Smooth Streaming) files.
362 @item -movflags faststart
363 Run a second pass moving the moov atom on top of the file. This
364 operation can take a while, and will not work in various situations such
365 as fragmented output, thus it is not enabled by default.
366 @end table
367
368 Smooth Streaming content can be pushed in real time to a publishing
369 point on IIS with this muxer. Example:
370 @example
371 ffmpeg -re @var{<normal input/transcoding options>} -movflags isml+frag_keyframe -f ismv http://server/publishingpoint.isml/Streams(Encoder1)
372 @end example
373
374 @section mpegts
375
376 MPEG transport stream muxer.
377
378 This muxer implements ISO 13818-1 and part of ETSI EN 300 468.
379
380 The muxer options are:
381
382 @table @option
383 @item -mpegts_original_network_id @var{number}
384 Set the original_network_id (default 0x0001). This is unique identifier
385 of a network in DVB. Its main use is in the unique identification of a
386 service through the path Original_Network_ID, Transport_Stream_ID.
387 @item -mpegts_transport_stream_id @var{number}
388 Set the transport_stream_id (default 0x0001). This identifies a
389 transponder in DVB.
390 @item -mpegts_service_id @var{number}
391 Set the service_id (default 0x0001) also known as program in DVB.
392 @item -mpegts_pmt_start_pid @var{number}
393 Set the first PID for PMT (default 0x1000, max 0x1f00).
394 @item -mpegts_start_pid @var{number}
395 Set the first PID for data packets (default 0x0100, max 0x0f00).
396 @end table
397
398 The recognized metadata settings in mpegts muxer are @code{service_provider}
399 and @code{service_name}. If they are not set the default for
400 @code{service_provider} is "FFmpeg" and the default for
401 @code{service_name} is "Service01".
402
403 @example
404 ffmpeg -i file.mpg -c copy \
405      -mpegts_original_network_id 0x1122 \
406      -mpegts_transport_stream_id 0x3344 \
407      -mpegts_service_id 0x5566 \
408      -mpegts_pmt_start_pid 0x1500 \
409      -mpegts_start_pid 0x150 \
410      -metadata service_provider="Some provider" \
411      -metadata service_name="Some Channel" \
412      -y out.ts
413 @end example
414
415 @section null
416
417 Null muxer.
418
419 This muxer does not generate any output file, it is mainly useful for
420 testing or benchmarking purposes.
421
422 For example to benchmark decoding with @command{ffmpeg} you can use the
423 command:
424 @example
425 ffmpeg -benchmark -i INPUT -f null out.null
426 @end example
427
428 Note that the above command does not read or write the @file{out.null}
429 file, but specifying the output file is required by the @command{ffmpeg}
430 syntax.
431
432 Alternatively you can write the command as:
433 @example
434 ffmpeg -benchmark -i INPUT -f null -
435 @end example
436
437 @section matroska
438
439 Matroska container muxer.
440
441 This muxer implements the matroska and webm container specs.
442
443 The recognized metadata settings in this muxer are:
444
445 @table @option
446
447 @item title=@var{title name}
448 Name provided to a single track
449 @end table
450
451 @table @option
452
453 @item language=@var{language name}
454 Specifies the language of the track in the Matroska languages form
455 @end table
456
457 @table @option
458
459 @item stereo_mode=@var{mode}
460 Stereo 3D video layout of two views in a single video track
461 @table @option
462 @item mono
463 video is not stereo
464 @item left_right
465 Both views are arranged side by side, Left-eye view is on the left
466 @item bottom_top
467 Both views are arranged in top-bottom orientation, Left-eye view is at bottom
468 @item top_bottom
469 Both views are arranged in top-bottom orientation, Left-eye view is on top
470 @item checkerboard_rl
471 Each view is arranged in a checkerboard interleaved pattern, Left-eye view being first
472 @item checkerboard_lr
473 Each view is arranged in a checkerboard interleaved pattern, Right-eye view being first
474 @item row_interleaved_rl
475 Each view is constituted by a row based interleaving, Right-eye view is first row
476 @item row_interleaved_lr
477 Each view is constituted by a row based interleaving, Left-eye view is first row
478 @item col_interleaved_rl
479 Both views are arranged in a column based interleaving manner, Right-eye view is first column
480 @item col_interleaved_lr
481 Both views are arranged in a column based interleaving manner, Left-eye view is first column
482 @item anaglyph_cyan_red
483 All frames are in anaglyph format viewable through red-cyan filters
484 @item right_left
485 Both views are arranged side by side, Right-eye view is on the left
486 @item anaglyph_green_magenta
487 All frames are in anaglyph format viewable through green-magenta filters
488 @item block_lr
489 Both eyes laced in one Block, Left-eye view is first
490 @item block_rl
491 Both eyes laced in one Block, Right-eye view is first
492 @end table
493 @end table
494
495 For example a 3D WebM clip can be created using the following command line:
496 @example
497 ffmpeg -i sample_left_right_clip.mpg -an -c:v libvpx -metadata stereo_mode=left_right -y stereo_clip.webm
498 @end example
499
500 @section segment, stream_segment, ssegment
501
502 Basic stream segmenter.
503
504 The segmenter muxer outputs streams to a number of separate files of nearly
505 fixed duration. Output filename pattern can be set in a fashion similar to
506 @ref{image2}.
507
508 @code{stream_segment} is a variant of the muxer used to write to
509 streaming output formats, i.e. which do not require global headers,
510 and is recommended for outputting e.g. to MPEG transport stream segments.
511 @code{ssegment} is a shorter alias for @code{stream_segment}.
512
513 Every segment starts with a keyframe of the selected reference stream,
514 which is set through the @option{reference_stream} option.
515
516 Note that if you want accurate splitting for a video file, you need to
517 make the input key frames correspond to the exact splitting times
518 expected by the segmenter, or the segment muxer will start the new
519 segment with the key frame found next after the specified start
520 time.
521
522 The segment muxer works best with a single constant frame rate video.
523
524 Optionally it can generate a list of the created segments, by setting
525 the option @var{segment_list}. The list type is specified by the
526 @var{segment_list_type} option.
527
528 The segment muxer supports the following options:
529
530 @table @option
531 @item reference_stream @var{specifier}
532 Set the reference stream, as specified by the string @var{specifier}.
533 If @var{specifier} is set to @code{auto}, the reference is choosen
534 automatically. Otherwise it must be a stream specifier (see the ``Stream
535 specifiers'' chapter in the ffmpeg manual) which specifies the
536 reference stream. The default value is ``auto''.
537
538 @item segment_format @var{format}
539 Override the inner container format, by default it is guessed by the filename
540 extension.
541 @item segment_list @var{name}
542 Generate also a listfile named @var{name}. If not specified no
543 listfile is generated.
544 @item segment_list_flags @var{flags}
545 Set flags affecting the segment list generation.
546
547 It currently supports the following flags:
548 @table @var
549 @item cache
550 Allow caching (only affects M3U8 list files).
551
552 @item live
553 Allow live-friendly file generation.
554
555 This currently only affects M3U8 lists. In particular, write a fake
556 EXT-X-TARGETDURATION duration field at the top of the file, based on
557 the specified @var{segment_time}.
558 @end table
559
560 Default value is @code{cache}.
561
562 @item segment_list_size @var{size}
563 Overwrite the listfile once it reaches @var{size} entries. If 0
564 the listfile is never overwritten. Default value is 0.
565 @item segment_list type @var{type}
566 Specify the format for the segment list file.
567
568 The following values are recognized:
569 @table @option
570 @item flat
571 Generate a flat list for the created segments, one segment per line.
572
573 @item csv, ext
574 Generate a list for the created segments, one segment per line,
575 each line matching the format (comma-separated values):
576 @example
577 @var{segment_filename},@var{segment_start_time},@var{segment_end_time}
578 @end example
579
580 @var{segment_filename} is the name of the output file generated by the
581 muxer according to the provided pattern. CSV escaping (according to
582 RFC4180) is applied if required.
583
584 @var{segment_start_time} and @var{segment_end_time} specify
585 the segment start and end time expressed in seconds.
586
587 A list file with the suffix @code{".csv"} or @code{".ext"} will
588 auto-select this format.
589
590 @code{ext} is deprecated in favor or @code{csv}.
591
592 @item m3u8
593 Generate an extended M3U8 file, version 4, compliant with
594 @url{http://tools.ietf.org/id/draft-pantos-http-live-streaming-08.txt}.
595
596 A list file with the suffix @code{".m3u8"} will auto-select this format.
597 @end table
598
599 If not specified the type is guessed from the list file name suffix.
600 @item segment_time @var{time}
601 Set segment duration to @var{time}. Default value is "2".
602 @item segment_time_delta @var{delta}
603 Specify the accuracy time when selecting the start time for a
604 segment. Default value is "0".
605
606 When delta is specified a key-frame will start a new segment if its
607 PTS satisfies the relation:
608 @example
609 PTS >= start_time - time_delta
610 @end example
611
612 This option is useful when splitting video content, which is always
613 split at GOP boundaries, in case a key frame is found just before the
614 specified split time.
615
616 In particular may be used in combination with the @file{ffmpeg} option
617 @var{force_key_frames}. The key frame times specified by
618 @var{force_key_frames} may not be set accurately because of rounding
619 issues, with the consequence that a key frame time may result set just
620 before the specified time. For constant frame rate videos a value of
621 1/2*@var{frame_rate} should address the worst case mismatch between
622 the specified time and the time set by @var{force_key_frames}.
623
624 @item segment_times @var{times}
625 Specify a list of split points. @var{times} contains a list of comma
626 separated duration specifications, in increasing order.
627
628 @item segment_frames @var{frames}
629 Specify a list of split video frame numbers. @var{frames} contains a
630 list of comma separated integer numbers, in increasing order.
631
632 This option specifies to start a new segment whenever a reference
633 stream key frame is found and the sequential number (starting from 0)
634 of the frame is greater or equal to the next value in the list.
635
636 @item segment_wrap @var{limit}
637 Wrap around segment index once it reaches @var{limit}.
638
639 @item segment_start_number @var{number}
640 Set the sequence number of the first segment. Defaults to @code{0}.
641
642 @item reset_timestamps @var{1|0}
643 Reset timestamps at the begin of each segment, so that each segment
644 will start with near-zero timestamps. It is meant to ease the playback
645 of the generated segments. May not work with some combinations of
646 muxers/codecs. It is set to @code{0} by default.
647 @end table
648
649 @section Examples
650
651 @itemize
652 @item
653 To remux the content of file @file{in.mkv} to a list of segments
654 @file{out-000.nut}, @file{out-001.nut}, etc., and write the list of
655 generated segments to @file{out.list}:
656 @example
657 ffmpeg -i in.mkv -codec copy -map 0 -f segment -segment_list out.list out%03d.nut
658 @end example
659
660 @item
661 As the example above, but segment the input file according to the split
662 points specified by the @var{segment_times} option:
663 @example
664 ffmpeg -i in.mkv -codec copy -map 0 -f segment -segment_list out.csv -segment_times 1,2,3,5,8,13,21 out%03d.nut
665 @end example
666
667 @item
668 As the example above, but use the @code{ffmpeg} @var{force_key_frames}
669 option to force key frames in the input at the specified location, together
670 with the segment option @var{segment_time_delta} to account for
671 possible roundings operated when setting key frame times.
672 @example
673 ffmpeg -i in.mkv -force_key_frames 1,2,3,5,8,13,21 -codec:v mpeg4 -codec:a pcm_s16le -map 0 \
674 -f segment -segment_list out.csv -segment_times 1,2,3,5,8,13,21 -segment_time_delta 0.05 out%03d.nut
675 @end example
676 In order to force key frames on the input file, transcoding is
677 required.
678
679 @item
680 Segment the input file by splitting the input file according to the
681 frame numbers sequence specified with the @var{segment_frames} option:
682 @example
683 ffmpeg -i in.mkv -codec copy -map 0 -f segment -segment_list out.csv -segment_frames 100,200,300,500,800 out%03d.nut
684 @end example
685
686 @item
687 To convert the @file{in.mkv} to TS segments using the @code{libx264}
688 and @code{libfaac} encoders:
689 @example
690 ffmpeg -i in.mkv -map 0 -codec:v libx264 -codec:a libfaac -f ssegment -segment_list out.list out%03d.ts
691 @end example
692
693 @item
694 Segment the input file, and create an M3U8 live playlist (can be used
695 as live HLS source):
696 @example
697 ffmpeg -re -i in.mkv -codec copy -map 0 -f segment -segment_list playlist.m3u8 \
698 -segment_list_flags +live -segment_time 10 out%03d.mkv
699 @end example
700 @end itemize
701
702 @section mp3
703
704 The MP3 muxer writes a raw MP3 stream with an ID3v2 header at the beginning and
705 optionally an ID3v1 tag at the end. ID3v2.3 and ID3v2.4 are supported, the
706 @code{id3v2_version} option controls which one is used. The legacy ID3v1 tag is
707 not written by default, but may be enabled with the @code{write_id3v1} option.
708
709 For seekable output the muxer also writes a Xing frame at the beginning, which
710 contains the number of frames in the file. It is useful for computing duration
711 of VBR files.
712
713 The muxer supports writing ID3v2 attached pictures (APIC frames). The pictures
714 are supplied to the muxer in form of a video stream with a single packet. There
715 can be any number of those streams, each will correspond to a single APIC frame.
716 The stream metadata tags @var{title} and @var{comment} map to APIC
717 @var{description} and @var{picture type} respectively. See
718 @url{http://id3.org/id3v2.4.0-frames} for allowed picture types.
719
720 Note that the APIC frames must be written at the beginning, so the muxer will
721 buffer the audio frames until it gets all the pictures. It is therefore advised
722 to provide the pictures as soon as possible to avoid excessive buffering.
723
724 Examples:
725
726 Write an mp3 with an ID3v2.3 header and an ID3v1 footer:
727 @example
728 ffmpeg -i INPUT -id3v2_version 3 -write_id3v1 1 out.mp3
729 @end example
730
731 To attach a picture to an mp3 file select both the audio and the picture stream
732 with @code{map}:
733 @example
734 ffmpeg -i input.mp3 -i cover.png -c copy -map 0 -map 1
735 -metadata:s:v title="Album cover" -metadata:s:v comment="Cover (Front)" out.mp3
736 @end example
737
738 @c man end MUXERS