Till senaste kommentaren

Hur publiceras Sveriges Radio ljudfiler?

Hej Jag är nyfiken på vad ni använder för system eller mjukvara för filhantering för er streaming. Hur automatiserade är ert "workflow" alltså hanteringen när ni publicerar nya filer?

Kommentarer

  • Det undrar jag också, höll jag på att skriva.

    Det är få av mina kolleger som kan svara både begripligt och korrekt här - vilket beror på att vi använder flera olika tekniker. Somliga är helt automatiserade, andra kräver rätt mycket handpåläggning.

    En av de kolleger som vet mycket om detta heter Philip och passerade just förbi min plats. Han lovar att hjälpa mig att svara - men i morgon!

    Tills vidare tipsar jag om en artikel där vi reder ut (eller trasslar till?) begreppen genom att berätta om likheter och skillnader mellan de olika ljud vi erbjuder, vilket (förutom direktlyssning på ca 50 kanaler) är:
    • Ljudklipp som i allmänhet ligger "för alltid" (AAC, tre kvaliteter)
    • Sändningar som i allmänhet ligger ute i 30 dagar (AAC, tre kvaliteter)
    • Poddar som i allmänhet ligger ute "för alltid" (MP3, en kvalitet)
    Men även bland exempelvis poddarna finns det lite olika sätt som ljuden skapas - och tillsammans med Philip hoppas jag kunna reda ut begreppen.

    Om det är någon speciell del av "publicerings-mystiken" du är extra intresserad av, så förtydliga gärna frågan, annars kanske vi berättar rätt ingående om ljudklipp, trots att du egentligen är intresserad av poddarna (eller vice versa).

    Spännande fråga hur som helst!
    Annika Webbmaster
  • Tack Annika, mkt intressant, ser även fram emot Philips svar i morgon!
  • Hej igen!

    Philip har svarat:
    Hej,

    Det mesta i våra automatiserade flöden är egenutvecklade produkter som använder EBU-standarder för normalisering, konvertering och ljudprocessning.

    Publicering av ljudklipp
    Redaktionen drar och släpper det ljudklipp de vill publicera i en speciell filyta i vårt produktionssystem.

    En egenutvecklad modul upptäcker att det finns en ny ljudfil och skickar det vidare åt två håll:
    1. Filyta där andra system via API kan hämta ljudfilen och dess metadata i sitt originalformat för arkivering, sökbarhet och återanvändning
    2. Vidare för digital publicering
    Ljudet som ska vidare för publicering passerar därefter en egenutvecklad modul som Loudness-normaliserar ljudet enligt Lufs R128 så att det ska upplevas jämnt i lyssningsnivå i förhållande till de andra ljuden vi erbjuder samt processar ljudet enligt våra riktlinjer så att det inte spretar i för hög dynamik eller i frekvensspektrum. Därefter konverteras ljudet till tre olika AAC-kvaliteter som vi erbjuder lyssnarna digitalt: låg, mellan och hög.

    Efterhandslyssning av avsnitt
    Här har vi flera olika varianter beroende på om programmet av flödesradiokaraktär, av poddkaraktär som är anpassat och producerat för on demand-publik eller av nyhetskaraktär.

    Vi kan för varje avsnitt ange om vi vill att poddfilen också ska generera den direktlyssning man få när man klickar på playknappen för efterhandslyssning av ett avsnitt. Vissa avsnitt erbjuds inte nedladdningsbara som podd på grund av upphovsrätt, men erbjuds som icke nedladdningsbar efterhandslyssning. I dessa fall spelas sändningen automatiskt in enligt våra tablåtider och publiceras per automatik strax efter utsändningen.

    I vissa fall publicerar vi två versioner av ljudet, både poddfil och efterhandslyssning, t ex för Sommar i P1 då publiken önskar möjlighet att lyssna på avsnittet med musik (den inspelade och automatiskt publicerade sändningen) eller utan musik (den redigerade poddfilen).
    Jag har försett hans svar med förklarande länkar vid begrepp som jag misstänker att många lyssnare inte är bekanta med, men det finns säkert fler saker som kan behöva förtydligas, så fråga på!
    Annika Webbmaster
  • Stort tack för intressant och klargörande svar!
  • Mycket intressant. Skulle gärna ta emot tips på hur jag kan förbättra mina egna podd-inspelningar då det talade ljud som hörs i ex.vis P1 är i en helt annan liga än de flesta poddar. Förutom rumsmiljö, mikrofonteknik och mikrofoner - hur behandlar ni det talade ljudet för att få det så bra (förutom normalisering som redan nämnts)? Använder ni EQ? Har ni några generella tips på EQ-inställningar för talat ljud?
  • Oj, spännande frågor som jag inte har koll på alls, och därför ber kolleger att svara på.

    Tills vi får hjälp från dem, finns det en text som handlar om hur vi på Sveriges Radio arbetar mer generellt med hörbarhet här. En del av de tipsen kan nog vara intressanta för dig, exempelvis om hur man använder bakgrundsljud för att etablera en stämning, men att den nivån kan dras ned när talet kommer in.
    Hörbarhet och bakgrundsljud

    Ett annat generellt tips, är att lyssna igenom hur det låter både med hörlurar och "ute i rummet" med olika typer av högtalare. (Såna tester behöver förstår inte gå till överdrift, det är ju omöjligt att täcka in alla miljöer vid varje avsnitt). Talat innehåll som du tycker är tydligt i bra hörlurar i en tyst studio (i synnerhet om du själv är involverad i produktionen och redan innan vet vad som sägs!) kan vara mer otydligt för den som lyssnar i t ex bilens ljudanläggning eller med datorns högtalare.

    Jag återkommer när jag har varit i kontakt med ljudteknikerna!
    Annika Webbmaster
  • Tack så länge för mycket bra engagemang i forumet! Frågan om EQ kan ju också gälla andra justeringar som kompression etc för att få det där ”P1-ljudet”.
  • Hej Mats!

    Jag hade markerat denna tråd med "följ upp", och det var bra, för när jag nu följer upp, så ser jag att jag aldrig vidarebefordrade din efterlysning om tips på vad man bör tänka på när man producerar talat innehåll. Att svaret kommer så sent är alltså mitt fel, ingen annans.

    Nu har pratat med en kollega, samma Philip som har svarat ovan för övrigt, och han förstår utmaningen. På Sveriges Radio har vi bra studior och bra utrustning, men vad kan du tänka på för att få podden att låta så proffsig som möjligt utan att ruinera dig? Jag frågade:
    Om man ska lägga 3000 kronor på något, var gör de mest nytta?
    Ett kanske lite oväntat svar:
    En mikrofon för 1500, resten på filtar och mattor. Själv använde jag massor av billiga fleecefiltar för att få till en bra akustik för att spela in hemifrån under pandemin, samt en dynamisk mikrofon för scenbruk eftersom man kan tala väldigt nära och undvika rumsreflexer 
    Jag frågade även om vilken programvara som är ett minimum, och han svarade:
    Man behöver ju något att spela in i. Typ en dator med ljudkort, sen finns det freeware att använda som ljudredigering och ljudbearbetning. När man köper ett ljudkort ingår ofta  en lightversion av ljudredigeringsprogram.
    Hans råd blev:
    1. Akustiken - försök dämpa rumsreflexer. Sitt i ett rum med mycket möbler, mattor och gardiner. Har du en bordsskiva, dämpa den gärna med en filt så att du inte har kala ytor där ljudet studsar.
    2. Använd en dynamisk mikrofon som du kan ha nära munnen så att det läcker in så lite rumsljud som möjligt, t ex en mikrofon som används för sångare på scen.
    3. Koppla mikrofonen till ett ljudkort som du kan koppla till din dator. Se till att mikrofonen inte överstyr så att det uppstår distorsion.
    4. Använd ett ljudredigeringsprogram som kan hantera VST-plugins. Det finns en massa gratisvarianter på nätet, både av ljudredigeringsprogram samt av VST-plugins. Hitta en equalizer VST-plugin som du kan använda för att filtrera ner bummelfrekvenser i basen och kanske för att brilla till ljudet lite i diskanten.
    5. Testa att spela in med olika mikrofonavstånd. Hör skillnaden och använd det avstånd där du tycker att det låter bäst.
    Lycka till med podden!
    Annika Webbmaster
  • Hej, stort tack för det utförliga svaret!

Kommentera eller skriv ett nytt inlägg

Ditt namn och inlägg kan ses av alla. Din e-post visas aldrig publikt.