In questo articolo vedremo alcuni comandi comuni per convertire e manipolare caratteristiche specifiche dei file multimediali. Anche se abbiamo provato a mostrare operazioni equivalenti per tutte le procedure, non tutte le operazioni sono possibili in entrambe le applicazioni.
In molti casi, i comandi mostrati possono essere combinati in un'unica operazione a riga di comando, come accade se vengono effettivamente utilizzati. Ad esempio, niente ti impedisce di impostare la velocità in bit di un file di output nella stessa operazione eseguita per la conversione di un file. In questo articolo, per maggiore chiarezza, spesso mostriamo queste operazioni come comandi separati.
La conversione viene eseguita con queste applicazioni:
Caratteristiche del display
Sia Shaka Packager che FFmpeg possono essere utilizzati per esaminare i contenuti di un file multimediale e quindi visualizzare le caratteristiche di uno stream. Tuttavia, entrambi forniscono un output diverso per gli stessi contenuti multimediali.
Caratteristiche con Shaka Packager
packager input=glocken.mp4 --dump_stream_info
L'output ha il seguente aspetto:
File "glocken.mp4":
Found 2 stream(s).
Stream [0] type: Video
codec_string: avc1.640028
time_scale: 30000
duration: 300300 (10.0 seconds)
is_encrypted: false
codec: H264
width: 1920
height: 1080
pixel_aspect_ratio: 1:1
trick_play_factor: 0
nalu_length_size: 4
Stream [1] type: Audio
codec_string: mp4a.40.2
time_scale: 48000
duration: 481280 (10.0 seconds)
is_encrypted: false
codec: AAC
sample_bits: 16
num_channels: 2
sampling_frequency: 48000
language: eng
seek_preroll_ns: 20833
Caratteristiche che utilizzano FFmpeg
ffmpeg -i glocken.mp4
L'output ha il seguente aspetto:
Input #0, mov,mp4,m4a,3gp,3g2,mj2, from 'glocken.mp4':
Metadata:
major_brand : isom
minor_version : 512
compatible_brands: isomiso2avc1mp41
encoder : Lavf57.83.100
Duration: 00:00:10.03, start: 0.000000, bitrate: 8063 kb/s
Stream #0:0(eng): Video: h264 (High) (avc1 / 0x31637661), yuvj420p(pc), 1920x1080, 7939 kb/s, 29.97 fps, 29.97 tbr, 30k tbn, 59.94 tbc (default)
Metadata:
handler_name : VideoHandler
Stream #0:1(eng): Audio: aac (LC) (mp4a / 0x6134706D), 48000 Hz, stereo, fltp, 127 kb/s (default)
Metadata:
handler_name : SoundHandler
At least one output file must be specified
Demux (separa) gli stream audio e video
Shaka Packager richiede la demuxing durante la conversione dei file. Questa operazione è necessaria anche per usare i framework multimediali.
Demuxing Shaka Packager
MP4
packager input=myvideo.mp4,stream=video,output=myvideo_video.mp4
packager input=myvideo.mp4,stream=audio,output=myvideo_audio.m4a
Oppure:
packager \
input=myvideo.mp4,stream=video,output=myvideo_video.mp4 \
input=myvideo.mp4,stream=audio,output=myvideo_audio.m4a
WebM
packager \
input=myvideo.webm,stream=video,output=myvideo_video.webm \
input=myvideo.webm,stream=audio,output=myvideo_audio.webm
Demuxing FFmpeg
MP4
ffmpeg -i myvideo.mp4 -vcodec copy -an myvideo_video.mp4
ffmpeg -i myvideo.mp4 -acodec copy -vn myvideo_audio.m4a
WebM
ffmpeg -i myvideo.webm -vcodec copy -an myvideo_video.webm
ffmpeg -i myvideo.webm -acodec copy -vn myvideo_audio.webm
Remux (combinare) gli stream audio e video
In alcuni casi dovrai ricomporre l'audio e il video in un unico container. in particolare se non usi un framework multimediale. Si tratta di qualcosa che FFmpeg può gestire abbastanza bene e che Shaka Packager al momento non supporta.
ffmpeg -i myvideo_video.webm -i myvideo_audio.webm -c copy myvideo.webm
Cambia caratteristiche
Velocità in bit
Per FFmpeg, possiamo eseguire questa operazione durante la conversione in .mp4
o .webm
.
ffmpeg -i myvideo.mov -b:v 350K myvideo.mp4
ffmpeg -i myvideo.mov -vf setsar=1:1 -b:v 350K myvideo.webm
Dimensioni (risoluzione)
ffmpeg -i myvideo.webm -s 1920x1080 myvideo_1920x1080.webm
Tipo di file
Shaka Packager non può elaborare i file .mov
, pertanto non può essere utilizzato per convertire
file in quel formato.
Da .mov
a .mp4
ffmpeg -i myvideo.mov myvideo.mp4
Da .mov
a .webm
ffmpeg -i myvideo.mov myvideo.webm
Sincronizzare audio e video
Per assicurarti che audio e video si sincronizzino durante la riproduzione, inserisci i fotogrammi chiave.
ffmpeg -i myvideo.mp4 -keyint_min 150 -g 150 -f webm -vf setsar=1:1 out.webm
MP4/H.264
ffmpeg -i myvideo.mp4 -c:v libx264 -c:a copy myvideo.mp4
Audio per un MP4
ffmpeg -i myvideo.mp4 -c:v copy -c:a aac myvideo.mp4
WebM/VP9
ffmpeg -i myvideo.webm -v:c libvpx-vp9 -v:a copy myvideo.webm
Audio per un formato WebM
ffmpeg -i myvideo.webm -v:c copy -v:a libvorbis myvideo.webm
ffmpeg -i myvideo.webm -v:c copy -v:a libopus myvideo.webm
Video on demand e live streaming
In questo articolo illustreremo due tipi di protocolli per i flussi di dati. Il primo è Dynamic Adaptive Streaming over HTTP (DASH), una tecnica di streaming con velocità in bit adattiva e un metodo basato su standard web per presentare video on demand. Il secondo è HTTP Live Streaming (HLS), che è lo standard di Apple per il live streaming e i video on demand per il web.
DASH/MPD
Questo esempio genera il file di output MPD (Media Presentation Description) dagli stream audio e video.
packager \
input=myvideo.mp4,stream=audio,output=myvideo_audio.mp4 \
input=myvideo.mp4,stream=video,output=myvideo_video.mp4 \
--mpd_output myvideo_vod.mpd
HLS
Questi esempi generano un file di output M3U8
dagli stream audio e video, ovvero una playlist multimediale codificata in UTF-8.
ffmpeg -i myvideo.mp4 -c:a copy -b:v 8M -c:v copy -f hls \
-hls_time 10 -hls_list_size 0 myvideo.m3u8
OPPURE:
packager \
'input=myvideo.mp4,stream=video,segment_template=output$Number$.ts,playlist_name=video_playlist.m3u8' \
'input=myvideo.mp4,stream=audio,segment_template=output_audio$Number$.ts,playlist_name=audio_playlist.m3u8,hls_group_id=audio,hls_name=ENGLISH' \
--hls_master_playlist_output="master_playlist.m3u8"
Ora che ci auguriamo di aver capito bene come convertire i file, possiamo basarci su quanto appreso in questo articolo e scoprire di più sulla crittografia dei contenuti multimediali nel prossimo articolo.