"Still a picture of you" – Om straffrättslig reglering av pornografiska deepfakes
Med hjälp av artificiell intelligens är det idag möjligt att skapa verklighetstrogna bilder och filmer som föreställer sådant som aldrig har hänt, så kallade deepfakes. Tekniken används i stor utsträckning för att sprida fejkade pornografiska bilder och filmer av enskilda personer, vilket kränker den sexuella integriteten hos den avbildade. Medan vem som helst kan utsättas för denna typ av kränkniUsing artificial intelligence, it is today possible to create realistic images and videos that portray events that have never happened. These images are often called deepfakes. This technology is widely used to spread fake pornographic images and videos of individual persons, violating their sexual integrity. While anyone could become the target of this form of harassment, women are disproportiona
