Ellers tak, Amazon: Snart vil du gennem assistenten Alexa kunne "tale med de døde"

Den artikel, du sidder med her, er ikke en gengivelse af plottet i ”Black Mirror”-afsnittet ”Be Right Back”, men derimod den skinbarlige sandhed.
Hvor syret det end lyder.
For ifølge techvirksomheden Amazons seneste præsentation af kommende produkter og funktioner, så er planen, at brugere gennem såkaldt deepfake stemmeteknologi vil kunne føre en samtale med deres afdøde kære.
Det skriver flere medier, herunder The Independent.
Stemmeassistenten, som vi kender fra produkter som Alexa, vil snart være i stand til at imitere afdøde personers stemmer, således at man både kan føre en samtale og få læst historier højt med stemmerne.
Denne funktion – som mange brugere nok vil have det en smule ambivalent med – træder i kraft ved næste opdatering, lyder det fra folkene bag Amazon Alexa.
Vil holde minder i live
Det var Rohit Prasad, der er chef for afdelingen for kunstig intelligens hos Amazon, der præsenterede den vilde, nye funktion på et pressemøde, hvor han desuden forklarede, at de ikke forventede, at muligheden for at ”talte med” afdøde personer ville kunne eliminere følelsen af savn og sorg helt, men at den er skabt til at ”holde minder i live”.
For at kunne genskabe en afdød persons stemme, vil systemet kun skulle bruge et minuts optagelse af personen stemme, og således vil du kunne for eksempel din afdøde bedstemor til at læse godnathistorier for ungerne.
Teknologien er nu så overbevisende, at den også har været brugt i film som den aktuelle ”Top Gun: Maverick”, hvor det lykkedes produktionen at genskabe skuespiller Val Kilmers stemme, som den lød, før han blev ramt af cancer i halsen, og mistede stemmen i 2014.
Men denne udvikling har også dannet grundlag for ivrige etiske diskussioner, for deepfake-teknologi – hvad enten det er auditivt eller visuelt – kan være både amoralsk og vildledende.
Konkurrenten Microsoft har for eksempel forsøgt at begrænse funktionen i deres produkter, da de frygtede, den kunne bruges til at skabe falske eller misvisende lydfiler af for eksempel kendisser eller politikere, som man vil kunne få til at sige hvad som helst.