[Pc-listen] Alt, hvad du ser, er falsk. OpenAI giver os et kig ind i fremtiden med sit nye værktøj | Teknologi | DR

Hans Mikkelsen hansmikkelsen at stofanet.dk
Søn Feb 18 19:56:44 CET 2024


Alt, hvad du ser, er falsk. OpenAI giver os et kig ind i fremtiden med sit
nye værktøj | Teknologi | DR

Teknologi forside

Alt, hvad du ser, er falsk. OpenAI giver os et kig ind i fremtiden med sit
nye værktøj

Det kan blive meget svært at skelne mellem, hvad der "ægte" og "falsk" med
OpenAI's nyeste tjeneste Sora.

Artikel

Afspil video

1 MINUT OG 3 SEKUNDER

Artikel slut

Det ser virkeligt ud, men det er det ikke. Videoerne er blevet til
virkelighed med OpenAI's nyeste tjeneste Sora, der gør tekst til video.
Kreditering:

Sora

AF

Ida Meesenburg

Før du bevæger dig for godt ned i artiklen, så forestil dig følgende for dit
indre øje:

To golden retrievers, der laver en podcast, på et bjerg.

Det lyder temmelig bizart - og også ret usandsynligt - 

men denne korte tekst er blevet til virkelighed

ved hjælp af kunstig intelligens.

Torsdag ramte endnu et værktøj nemlig internettet, da teknologivirksomheden
OpenAI, der står bag ChatGPT, præsenterede sit nyeste skud på stammen, Sora.

Groft sagt kan Sora generere virkelighedstro videoer på op til et minut ud
fra tekstbeskrivelser.

Det eneste, det kræver, er, at brugerne detaljeret skriver - eller prompter
- hvad de vil se.

De to ambitiøse golden retrievers er ikke det eneste eksempel, som Open AI's
direktør, Sam Altman, torsdag fik travlt med at generere med lidt hjælp fra

Sora.

På X

bad han brugere sende en kort tekstbeskrivelse af en video, de gerne vil
have AI-værktøjet til at lave.

En anden fantasifuld bruger bad blandt andet om en video af "et væsen, der
er halv and, halv drage, flyver mod solnedgangen. På ryggen af dyret sidder

en hamster, klædt på til eventyr.".

Og det fik han. I den grad.

Her er et eksempel på det, Sora har skabt. Du kan se videoen i bevægelse på
X.

Brug altid din sunde fornuft

Spøg til side, så er det ikke kun søde dyrevideoer, der kan få en til at
trække på smilebåndet, Sora kan bruges til.

OpenAI har et helt afsnit på sin hjemmeside

vedrørende sikkerhed. Og med god grund, da videoerne nemt vil kunne bruges
til misinformation.

Tidligere journalist og nu forsker ved Stanford University Basile Simon
mener, at det indtil videre har været nemt af spotte falske billeder.

- Men det her nye software ser ud til at fungere på et nyt niveau, siger
Basile Simon til 

AFP.

Han frygter, at mediebrugere ikke længere vil kunne være sikre på, hvad de
skal tro på.

Læs også: Kunstig intelligens tager fart i 2024: 'Vi får nok øjnene op for
skyggesiderne'

DR's tech-korrespondent Henrik Moltke medgiver, at Sora tager et stort
skridt, hvor det kan blive meget svært at skelne mellem, hvad der "ægte" og
"falsk".

- Den kan håndtere mange kompleksiteter. Relationer mellem objekterne i
videoen, lysindfald, for eksempel i hår, der bevæger sig, og vand, der
flyder,

ser realistisk ud.

- Alle de her svære ting, der er svære at computergenerere, håndterer den
rigtig, rigtig flot, siger han.

- Det er vel at mærke ud fra sparsomme prompts, som du og jeg kunne skrive.

Eksempel på, hvad Sora blev bedt om at prompte: Et dronekamera kredser rundt
om en smuk historisk kirke, der er bygget på en klippe langs Amalfikysten,

Når det er sagt, mener Henrik Moltke dog, at der fortsat er et stykke vej
endnu, før vi for alvor skal være bekymrede.

- Jeg kan stadigvæk med det samme spotte, at de her videoer er genererede.

Han påpeger, at æstetikken først og fremmest er meget overdrevet.

- Det ser simpelthen for "Ultra Max HD" ud, griner han.

- Kigger man på, hvordan hænder, ben og arme bevæger sig, eller hvordan
personer i baggrunden opfører sig, vil man stadig se de klassiske småfejl,
der

trodser fysikkens love.

Læs også: DR har fået Margrethe Vestager til at tale kinesisk: ‘Risikoen er,
at vi holder op med at tro på noget som helst’

I en tilplastret digital virkelighed med falske videoer, 

deepfakes

af politikere og kendisser, kan det efterhånden være svært at vide, hvad der
er op og ned.

Og dér har Henrik Moltke et tip: Brug altid din sunde fornuft.

- Er der noget, som virker for godt til at være sandt? siger han.

OpenAI oplyser også, at den nuværende model af Sora ikke er helt fejlfri.

Eksempelvis har AI-tjenesten stadigvæk svært ved at skelne mellem højre og
venstre, og den kan ligeledes have svært ved at "simulere fysikken i en
kompleks

scene".

Det sker heller ikke meget, når fødselsdags'barnet' i videoen her forsøger
at puste lysene ud på sin kage.

Det er en længere beskrivelse, som Sora blev bedt om at prompte. Og her gik
det altså galt. OpenAI skriver, "at simulering af komplekse interaktioner
mellem

objekter og flere karakterer ofte er en udfordring, hvilket kan resulterer i
humoristiske genereringer." Kreditering: Sora, OpenAI.

'Grundloven' skal stadig på plads

Selvom det nok kribler i fingrene hos flere tech-interesserede, så kommer
der til at gå en rum tid, før brugere kan kaste sig ud i at prompte videoer.

Som en del af sikkerhedsforanstaltningerne skal Sora nemlig gennemtestes for
faldgrupper.

- Det er fornuftigt, at de lader specialister forsøge at finde måder at
slippe udenom Soras sikkerhedsmekanismer, siger Henrik Moltke.

De såkaldte "red teamers" skal vurdere kritiske områder, hvor de generede
videoer kan skade eller udgøre en risiko, 

skriver OpenAI.

Og det er faktisk også et krav i den nye EU-lovgivning 'AI Act', da denne
type kunstig intelligens helt utvivlsomt er i den såkaldte højrisiko
kategori.

Læs også: 'Hvis vi ikke regulerer kunstig intelligens, så sætter det altså
vores frie vilje under pres'

Samtidig arbejder AI-firmaet på at bygge værktøjer, som hurtigt kan spore,
hvornår en video er genereret af Sora, og på de eksempler, der ligger til
offentligt

skue, er der ligeledes et vandmærke i højre hjørne.

Sidst, men ikke mindst, skal der ligesom med andre kunstig
intelligens-tjenester laves en form for "Grundlov", så brugere ikke kan
misbruge tjenesten,

forklarer Henrik Moltke.

- Og det har OpenAI valgt at gøre i et lukket miljø. En ting er, at modellen
kan rigtig meget, men der skrives en række regler og begrænsninger ind, før

den bliver sluppet løs, så den bliver langt sværere at snyde med.

I processen vil OpenAI også inddrage politiske beslutningstagere,
undervisere og kunstnere verden over, som kan belyse mulige problematikker
og eventuelle

blinde vinkler.

Sora blev blandt andet bedt om at prompte: Historiske optagelser fra
guldfeberen i Californien.

Google skal være bekymret

Alt i alt får OpenAI's nyeste skud på stammen Henrik Moltke til at trække på
smilebåndet.

- OpenAI viser endnu engang konkurrenterne, hvem der fører i AI-kapløbet,
siger han og tilføjer:

- De flytter hegnspælene et godt stykke frem. Det er et kig ind i fremtiden,
i forhold til hvad vi kommer til at se med videoformatet.

Spørger man tech-korrespondenten må den overbevisende demonstration få
svedperlerne til at pible frem hos 

konkurrenterne hos Google

til at løbe endnu hurtigere for at indhente OpenAi.

I DR-podcasten Prompt,

hvor Henrik Moltke og tech-analytiker Marcel Mirzaei-Fard nørder
teknologiske udviklinger, har de for nylig leget med Googles pendant til
ChatGPT, Gemini

Ultra.

Gemini Ultra fungerer som ChatGPT - bare bedre, hvis man skal tro Googles
egen udmelding. Gemini Ultra integrerer sig også med it-virksomhedens andre
produkter,

så man for eksempel kan prompte Gemini Ultra til at læse sine mails.

- Og det er tydeligt, at Google er kommet, om ikke på linje med, så måske på
nogle områder forbi det, som OpenAI frigav for lidt under et år siden, da

modellen GPT-4 blev tilgængelig.

Men der er stadig lang vej igen, og nu spiller OpenAI med musklerne og
viser, hvad de har arbejdet på, mens Google er kommet up to date med
sprogmodellerne.

Google har meldt ud, at de vil lave noget tilsvarende med Sora, men de har
ikke vist noget endnu.

- Og derfor er her en ret opsigtsvækkende demo, siger Henrik Molte.

- Man siger, at et billede siger mere end tusind ord, men når få ord bliver
ægte, levende billeder, bliver det for alvor vildt.

Der er snart det, som kunstig intelligens ikke kan. Vil du blive endnu
klogere - eller bare nørde med i godt selskab - nærlæser tech-analytiker
Marcel

Mirzaei-Fard og tech-korrespondent Henrik Moltke, ugentligt de største
historier om den teknologiske udvikling 

i DR-podcasten Prompt.

GÅ TIL INDHOLD

hovedregion

Prompt

Googles ChatGPT-dræber, Snapchats nedtur og magtesløse politikere

Vi har leget med Googles ChatGPT-dræber kaldet Gemini Advanced og
diskuterer, om den kommer til at gøre en forskel i AI-kapløbet. Det går ikke
godt for

Snapchat, der har lanceret mange forfejlede produkter og idéer de seneste år
og nu må fyre 10 procent af deres medarbejdere. Vi får besøg af some-ekspert

Valdemar Osted til at vende Snapchats op- og nedture. Og så er Henrik Moltke
træt af politikere, der bilder danskerne ind, at vi kan tøjle techgiganterne

med dansk lovgivning. Så hvad skal vi egentlig med det nye videnscenter for
SoMe, Demokrati og Tech, som Kulturstyrelsen har åbnet?Vært: Marcel
Mirzaei-Fard,

tech-analytiker og Henrik Moltke, tech-korrespondent.

Vis hele beskrivelsen

hovedregion slut

https://www.dr.dk/nyheder/viden/teknologi/alt-hvad-du-ser-er-falsk-openai-gi
ver-os-et-kig-ind-i-fremtiden-med-sit-nye

 

 

 

-------------- næste del --------------
En HTML-vedhæftning blev fjernet...
URL: <http://blindkom.dk/pipermail/pc-listen_blindkom.dk/attachments/20240218/d085813a/attachment.html>


Mere information om maillisten Pc-listen.