Umělá inteligence je schopná generovat dětskou pornografii, komplikuje pátrání po reálných obětech (iROZHLAS)

Prostor pro články, které zabývají legislativou a zákony.
Uživatelský avatar
Cykle02
Mediální analytik
Líbí se mi: Chlapci i dívky
ve věku od: 2
ve věku do: 12
Výkřik do tmy: Nevěřím těm co nevěří na Ježíška.
Příspěvky: 6278
Dal: 364 poděkování
Dostal: 2646 poděkování

Re: Umělá inteligence je schopná generovat dětskou pornografii, komplikuje pátrání po reálných obětech (iROZHLAS)

Nový příspěvek od Cykle02 »


Kyberšikana? Nic nového. Rozmach AI nicméně přináší novou paletu možností – mezi nimi i generování nahých deepfake fotografií vyobrazujících skutečné osoby. Všimli si toho i nezletilí, kteří s takovými fotkami začali ve Španělsku i dalších zemích šikanovat své spolužáky. Jak je na tom Česko?

Nový školní rok začal ve městě Almendralejo na jihozápadě Španělska pozdvižením. V klidném městě, kde žije pár desítek tisíc lidí a k hranicím s Portugalskem je to autem necelou hodinu, se začaly šířit nahé fotky místních nezletilých dívek. Fotky, které samy dívky nepořídily – vytvořila je generativní umělá inteligence a staly se nástrojem šikany.


„Dej mi peníze“

Incidenty nejsou žádnou „neškodnou zábavou“. Jedna ze zasažených, dvanáctiletá dívka, sdílela se svou matkou konverzaci s chlapcem z Instagramu. Nezletilé napsal, aby mu poslala „nějaké peníze“. Když odmítla, chlapec jí okamžitě poslal její „nahou“ fotku. Dívka si jej zablokovala, víc v tu chvíli udělat nemohla.

Zasažených napočítala média 28 – nejstarší je 17 let, nejmladší oslavila jedenácté narozeniny a ještě ani není studentkou střední školy. „Ty montáže jsou superrealistické, je to znepokojivé a velmi pobuřující,“ uvedla Miriam Al Adib, matka jedné z obětí. „Moje dcera mi se znechucením řekla: ‚Mami, podívej, co mi udělali’,“ dodala.

Právě Al Adib je hlavní iniciátorkou podpůrné skupiny, kde se spojily matky zasažených a skrze niž se snaží bezprecedentní situaci řešit. Dohnat k odpovědnosti ty, kteří jejich dcery vystavili (přinejmenším) nepříjemné situaci. Z pěti středních škol, které v Almendralejo fungují, se epidemie uměle vytvořených nahých fotek objevila nejméně na čtyřech.



Policie případy vyšetřuje a podle BBC identifikovala nejméně 11 chlapců, kteří do nich mají být zapleteni. Ať už jde o samotnou „výrobu“ nahé fotografie, nebo její šíření přes WhatsApp či Telegram. Tyto „deepfake nudes“ vznikly jednoduše: jejich autoři vzali – často ze sociálních sítí – fotky, na kterých byly dívky oblečené, a prohnali je aplikací, která k obličeji dané osoby přidala nahé tělo.

Šikana s pomocí AI napříč světem

Kauza Almendralejo už dávno překročila hranice svého regionu. Hýbe celým Španělskem, kde ji sledují rodiče dospívajících s obavami, že se jejich děti stanou oběťmi, nebo naopak pachateli. Debatu aféra rozvířila i ve světě, kde je možná poslední mediálně známou, ale rozhodně ne jedinou svého druhu.

V polovině srpna se podobná situace, tedy zneužití generativní AI, řešila i na druhém konci světa. „Tento měsíc jsme dostali první zprávy o sexuálně explicitním obsahu, který skrze tuto technologii vygenerovali studenti za účelem šikany jiných studentů,“ informovala australská „komisařka pro eBezpečnost“ Julie Inman Grant a dodala, že se pak takovými případy zabývají nouzové linky, neziskové organizace a další subjekty.


Jak se zbavit konkurence

Kuriózní je případ, k němuž došlo v roce 2021 v Pennsylvánii. Matka členky týmu roztleskávaček vytvořila za pomoci AI deepfakes vyobrazující konkurentky její dcery. Na fotkách a videích, jež pak poslala trenérovi, byly „nahé, kouřily a pily alkohol“. Ženu úřady obvinily v několika bodech z obtěžování.

Například ve Spojených státech se o hrozbě, kterou deepfakes vytvořené umělou inteligencí představují, více mluví už od června. FBI tehdy varovala, že takové výtvory mohou být „použity proti jedincům“.

Pod útokem ale nejsou už „jen“ influenceři nebo celebrity – aplikace využívají, stejně jako ve Španělsku, děti a nezletilí k šikaně lidí ve svém okolí. „Vezmou fotku nějakého studenta nebo studentky, vytvoří obrázek, na kterém jsou nazí, a pošlou ho jejich kamarádům nebo rodině,“ popsal David Morgan, který dříve pracoval u FBI. Uvěřitelnosti AI výtvorů nahrává podle něj to, že dokáže vytvořit realistické prostředí, do kterého uměle vytvořené nahé tělo zasadí: „Nevytvoří obrázek třináctileté studentky u Eiffelovy věže, ale na jejím dvorku.“

Gregorová: „Zdroje budou vždycky“

Španělská epidemie uměle vytvořených nudes oživila debatu o tom, jak a zda AI regulovat. Touto otázkou se poslední roky zabývá i Evropská unie, která po rozmachu služeb jako ChatGPT v červnu přišla s prvním, dlouho očekávaným návrhem regulací umělé inteligence. Loni v prosinci jej na Evropské radě představilo předsedající Česko, v červnu o svém postoji k souboru pravidel hlasoval Evropský parlament. Nyní je na řadě vyjednávání o jeho finální podobě, a to mezi Evropskou komisí, radou a parlamentem.

Voxpot se v návaznosti na šíření nahých fotek nezletilých ve Španělsku spojil s europoslankyní Markétou Gregorovou (Piráti), která se regulacemi AI zabývá. „AI Act takové případy nepokrývá. Zaměřuje se sice na použití AI modelů, ale spíše ze strany státní moci nebo firem,“ konstatovala politička.

Případy, jako je ten španělský, podle ní prakticky nelze regulovat: „Většina modelů, které generují obrazový materiál, už teď nahotu omezuje. Ale zcela upřímně, nahoty je v on-line prostoru tolik, že i drobounký model, který si vytrénuje nějaký středoškolák, ji vytvoří úplně jednoduše. Technologicky nejde o žádnou velkou novinku, regulatorně je zároveň těžké to postihnout. Dokud bude k dispozici zdrojový materiál, a na internetu bude nahota vždy, tak není možné omezit čerpání takového materiálu.

Řešeními jsou tak podle Markéty Gregorové zejména osvěta mezi dospívajícími i rodiči a kázeňské postihy. Svou roli, minimálně formální, by pak mohlo hrát i věkové omezení pro uživatele. Organizace UNESCO na začátku září doporučila zavedení takového limitu, například ChatGPT by měli používat pouze lidé starší 16 let. Ne třináctiletí, jako je tomu v současnosti.

„Podle mě by se mělo začít veřejným nátlakem na společnosti, které tyto služby poskytují. Jde o tak rychle se rozvíjející trh, že u něho nelze předem domyslet všechny důsledky. Pokud by regulaci někdo připravil za dva roky, vešla by v platnost za pět let, kdy už bude situace úplně jiná,“ podotkla Gregorová s tím, že určitá zodpovědnost by měla zůstat i na rodičích, kteří by měli vědět, jaké aplikace se dostávají dětem pod ruku.

„MŠMT takový podnět zatím neobdrželo“

Debata o umělé inteligenci a její regulaci vyvolává otázky, zda nejsme jako společnost – co se přijímání zákonů a opatření týče – poněkud pozadu. Častěji než zprávy o nových řešeních a regulatorních krocích se objevují spíše varování expertů a vědců, kteří upozorňují na různé hrozby, jež AI pro lidstvo představuje.

„Zmírnění rizika vyhynutí způsobeného umělou inteligencí by mělo být globální prioritou vedle dalších rizik celospolečenského měřítka, jakými jsou pandemie nebo jaderná válka,“ uvádí například otevřený dopis, který podepsaly stovky zástupců vědeckého a tech prostředí. Mezi nimi i Sam Altman, šéf zmiňované OpenAI, nebo Geoffrey Hinton, kterého média titulují jako „otce umělé inteligence“.

Na umělou inteligenci je sice možné nahlížet fatálně a jako na celek, zaměřit se ale můžeme i na mnohem menší rybníček – třeba ten český. Na potenciální případy „AI šikany“ na školách se Voxpot zeptal českého ministerstva školství. „MŠMT takový podnět zatím neobdrželo,“ uvedl tiskový odbor rezortu, přičemž stejně reagoval i Národní pedagogický institut, který se přímo věnuje rozvíjení vzdělávacích institucí.

NPI vydalo řadu preventivních doporučení, případně varování před možnými riziky používání AI pro učitele, žáky i jejich rodiče. O šikaně se dokument explicitně nezmiňuje, apeluje však na soukromí nezletilých uživatelů umělé inteligence i „posilování gramotnosti v oblasti AI“. MŠMT také připravuje Plán podpory využití umělé inteligence ve školství, který by měl podle jeho tiskového odboru reflektovat i „etické a bezpečnostní obavy“ týkající se AI.

České úřady tedy v současnosti podobné incidenty šikany neregistrují. To ovšem nutně neznamená, že k nim v tuzemských třídách a online prostoru nedochází.

Tématu šikany na školách za použití AI a bezpečnostním či etickým rizikům umělé inteligence, jimž čelí nezletilí i dospělí, se chce Voxpot věnovat i nadále. Pokud jste se někdy stali terčem podobných útoků a chtěli svou zkušenost (se zaručením anonymity) sdílet, pište na [email protected].
Uživatelský avatar
Cykle02
Mediální analytik
Líbí se mi: Chlapci i dívky
ve věku od: 2
ve věku do: 12
Výkřik do tmy: Nevěřím těm co nevěří na Ježíška.
Příspěvky: 6278
Dal: 364 poděkování
Dostal: 2646 poděkování

Re: Umělá inteligence je schopná generovat dětskou pornografii, komplikuje pátrání po reálných obětech (iROZHLAS)

Nový příspěvek od Cykle02 »


ANALÝZA. Žádné znalosti nebo dokonce aplikace nejsou třeba. Nové služby generují realisticky vypadající „nahé snímky“. Jsou snadno dostupné , stačí jim poslat fotku. Někoho to asi potěší, celkově to povede k závažným problémům.

Nenahrávejte nikam na internet své nahé fotky ani je nikomu neposílejte, radí odborníci i Policie ČR. Takové snímky se mohou snadno stát nástrojem vydírání.

Tato rada je samozřejmě nadále platná. Jenže před tím, aby po webu kolovaly nahé fotky vás nebo vašich dětí, vás už obezřetnost neochrání. Takové nahé fotky může totiž z jediného snímku vytvořit opravdu kdokoli. A trvá to jen několik sekund.

Snímek vlevo (oblečená žena) je vygenerovaný nástrojem Midjourney. Tento snímek jsme následně poslali do služby, která jej na počkání „svlékla“. Celý proces trval necelou minutu. Pokud si někdo takovou službu předplatí (ceny začínají přibližně na 80 korunách za 20 montáží), nemusí údajně čekat více než 10 sekund.

Poznámka: V článku ukazujeme rozpixelované nebo rozostřené snímky nahoty. Původní výsledky ale takto upravené nejsou a prezentují realisticky vyhlížející nahotu. Redakce Seznam Zpráv se v souladu s kodexem rozhodla neuvádět názvy konkrétních svlékacích aplikací a služeb a nepodílet se tak na jejich propagaci. Existuje celá řada klonů založených zjevně na stejném nebo podobném software.

Rychlost, jednoduchost, nulové zábrany

Fotomontáže nejsou nic nového. Ale dosud bylo pro vytvoření fotorealistické iluze nutné využít speciální aplikace a služeb zkušeného grafika. Také bylo obvykle potřeba využít zdrojové snímky, a to nejen snímky „svlékané osoby“, ale i „náhradní tělo“, ze kterého nahota pocházela.

Už rok jsou na internetu k dispozici nástroje postavené na open source modelu Stable Diffusion, který umí generovat obrázky a fotografie dle textového zadání. Generování snímků bylo relativně snadné, ale náročné na čas. Obvykle také snímky nevypadaly úplně realisticky a bylo jednoduché poznat, že nejde o skutečné fotografie.

Tím, že je neuronová síť Stable Diffusion k dispozici všem jako volně dostupný software, objevily se brzy různé varianty tohoto nástroje. A řada těchto klonů jasně deklarovala, co je jejich cílem: vytvářet nahé, realisticky vypadající snímky žen.

Protože tyto nástroje byly a jsou zdarma ke stažení, neexistuje způsob, jak jejich provoz omezit nebo monitorovat. Třeba služba Midjourney generuje snímky na svých serverech, a má tak pod kontrolou všechny výstupy. Ale model Stable Diffusion může kdokoli rozběhnout na svém počítači, a tyto výsledky jsou samozřejmě již z principu nekontrolovatelné.

Stable Diffusion umí obrázky nejen generovat, ale také upravovat existující fotografie. Neuronová síť pak „opraví“ jen vybranou část snímku a zbytek nechá nedotčený. To otevírá svět fotomontáží prakticky komukoli, kdo o to má zájem.

Takzvané „svlékací aplikace“ se poprvé objevily už v roce 2019. Výsledky ale byly nepřesvědčivé a nejednalo se obvykle o fotorealistické snímky. Aplikace také neuměla „domyslet“ tělo pod šaty, a fungovala jen na snímcích v plavkách nebo upnutém oblečení.

S nástupem vyššího výpočetního výkonu, lepších algoritmů a sítí vytrénovaných na větším množství fotek se ale výsledky generátorů obrázků razantně zlepšily. A podnikavá „komunita fanoušků NSFW generátorů“ se chopila příležitosti na tom vydělat (NSFW=not safe for work, není vhodné prohlížet v práci, tedy explicitní snímky obsahují nahotu apod.).

Jak takový nástroj zpeněžíte? Někteří provozovatelé využívají komunikační síť Telegram k provozu „chatbota“, který na počkání svlékne prakticky jakoukoli ženu. Zvládne to tedy opravdu každý, kdo umí poslat fotku přes mobil.

Automat využívající umělou inteligenci napřed identifikuje části fotky, které jsou „nežádoucí“, v tomto případě oblečení. Následně je označí a dle textových instrukcí („nahá“ nebo „v prádle“) vygeneruje části fotky tak, aby odpovídaly zbytku fotky. Celý proces trvá několik minut pro neplatící uživatele, pro platící údajně jen několik sekund.

Vygenerované montáže občas obsahují podivné artefakty, celkově jsou ale výsledky fotorealistické. Pokud není na snímku zrovna vaše tělo, jen těžko byste na první pohled poznali, že jde o fikci.

„V minulosti nástroje pro úpravu fotografií vyžadovaly značné odborné znalosti,“ připomíná Luis Corrons, bezpečnostní expert Avastu. „S nástupem umělé inteligence se vytváření zmanipulovaných obrázků stalo dostupnějším i sofistikovanějším.“ Současné nástroje podle něj umožňují manipulovat s obrázky v reálném čase. Rozlišit takové fotomontáže od skutečných fotek je stále obtížnější.

Uživatel může obvykle zkusit několik fotek zdarma, poté musí za generování platit částky v řádu několika korun za vygenerovaný snímek.Řada podobných služeb funguje v rámci komunikační platformy Telegram a Discord. Další běží jako webová stránka. Některé po uživateli vyžadují, aby nástrojem označil oblečení, které má být odstraněno, většina to ale dělá automaticky.

Kromě toho existují i varianty, které může kdokoli se základními znalostmi práce na počítači vyzkoušet u sebe doma. Postačí k tomu téměř libovolný novější notebook s grafickou kartou. Takto pak může uživatel vygenerovat prakticky libovolné množství „svlečených fotek“, aniž by za to musel platit nebo tuto činnost mohl kdokoli vzdáleně kontrolovat.

Psychické problémy i vydírání

Svlékacích aplikací přibylo především v posledních měsících. Často se jedná o zjevné kopie a klony nějaké původní aplikace. Za provozem některých těchto klonů stojí podle vnějších znaků provozovatelé z Ruska, u jiných jsme věrohodné indicie nenašli.

Nejčastěji o sobě aplikace tvrdí, že slouží „výhradně k zábavě“. Některé nemají žádné podmínky použití, jiné uvádějí, že zakazují nahrávání fotek nezletilých a fotek lidí bez jejich souhlasu. Často také zakazují použití pro nelegální účely. Ze zkušeností, které lze na fórech dohledat, je ale zřejmé, že jde o bezzubé deklarace.

Provozovatel jedné ze svlékacích aplikací pro magazín Wired uvedl, že nedělá nic špatného a že záleží na uživateli, k čemu aplikaci použije: „Všechno [co používáme] je volně dostupné. Pokud se někdo rozhodne tuhle zábavnou aplikaci sobecky zneužít, tak za to je zodpovědný, tak se z toho musí on zodpovídat.“ Na dotazy Seznam Zpráv nikdo z oslovených provozovatelů nezareagoval.

Do povědomí veřejnosti se rizika spojená se svlékacími aplikacemi dostala v souvislosti s případem z města Almendralejo na jihu Španělska. Desítky nezletilých dívek z místní školy zjistily, že jejich nahé fotky si mezi sebou posílají spolužáci. To je samo o sobě celkem běžná forma kyberšikany v případě, že někdo vyláká nebo bez povolení dále šíří něčí nahé selfie fotky. Tyto dívky, kterým je všem mezi 11 a 17 lety, ale žádné takové snímky nepořídily.

„Víš, mami, po internetu běhá fotka s mým obličejem a nahým tělem,“ řekla nezletilá dcera své matce při nakupování, jak popisuje španělský web El Pais. „Tys ale žádné takové fotky nepořídila?“ ptala se šokovaná matka. „Ne, mami, ne. To je taková věc, co teď dělají. Hodně holkám z naší školy udělali stejnou věc.“

Dívky uvedly, že poté čelily posměchu ve škole, bály se jít na veřejnost a měly další psychické problémy. „Možná to začalo jako vtip, ale důsledky jsou mnohem větší a mohou mít vážné následky pro ty, kdo tyto fotografie pořídili,“ říká starosta Almendraleja. Policie zatím identifikovala minimálně 11 podezřelých, kteří se podíleli na tvorbě montáží a jejich šíření.

Přestože nejde o skutečné nahé snímky, dopady na psychiku mohou být podobné, jako když uniknou opravdové intimní fotky. S tím rozdílem, že úniku nahých snímků může člověk zabránit tím, že žádné nahé snímky svého těla nebude pořizovat.

Jenže ve chvíli, kdy na vygenerování takového snímku stačí jediná fotografie a minuta volného času, je obrana proti zneužití prakticky nemožná.

„Uživatelé by si měli uvědomit, že každý obrázek, který na internet nahrají, lze zneužít, a to i v jiném než sexuálně explicitním kontextu,“ připomíná Luis Corrons. „Jediná ochrana je vyvarovat se sdílení osobních fotografií na veřejných platformách nebo s neznámými osobami.“ Doporučuje také pravidelně kontrolovat a upravovat nastavení soukromí na sociálních sítích a udržovat si přehled o nových technologiích a jejich rizicích.

Svléká pouze ženy, ublížit může všem

Většina dostupných „svlékacích AI služeb“ fungovala pouze na fotkách žen. Snímky mužů program buď přímo odmítl, nebo vytvořil nerealistické obrazy. V některých případech zkrátka zobrazenému muži doplnil zjevně ženské tělo.

Jde zřejmě o kombinaci několika důvodů. Mezi lidmi, které tyto služby používají, patrně převažují muži vyhledávající fotky nahých žen, a této poptávce jde vstříc nabídka. Dalším důvodem je množství trénovacích dat: fotek nahých žen je na internetu větší množství než fotek nahých mužů. Je to ukázka klasického případu, kdy neuronová síť skrze trénovací data dále upevňuje existující stereotyp nebo diskriminaci.

Odnesou to hlavně děti

Na ženy a dívky jsou navíc často společností kladeny jiné nároky ohledně nahoty a jejího skrývání. Například odhalení horní části těla je u mužů často vnímáno jako přijatelné a neutrální, u žen jsou odhalená prsa sexualizována. I tyto rozdíly mohou vést k tomu, že tyto nové „svlékací služby“ budou mít více negativních dopadů právě na ženy.

„Ovlivní to, jak se ženy chovají, co dělají, co jsou ochotny zkusit, co si mohou dovolit riskovat, o jaké zaměstnání se mohou ucházet,“ uvedla pro Wired profesorka Mary Anne Franksová, která přednáší o právu na University of Miami. „Je to depresivní potvrzení všech varování, která jsme v souvislosti s touto technologií vznášeli od začátku. Žijeme teď v nové realitě, kde je úplně jedno, že jste nikdy nepózovala nahá nebo nikomu neposílala citlivé snímky. Stačí jim jen fotka vašeho obličeje.“

Obzvlášť závažné důsledky tyto aplikace – a jejich zneužití k tvorbě nahých snímků – může mít na děti. „Dochází ke smazání rozdílů mezi skutečným a virtuálním světem. Mnoho lidí neuvěří, že se dotyčný nesvlékl, že to je aplikace. Z naší zkušenosti s dětskou klientelou může být důsledkem strach, úzkosti, panické ataky, sebepoškozování, sebevražedné myšlenky až pokus o sebevraždu,“ popsala Lucie Zelenková, sociální pracovnice Linky bezpečí.

Přestože nejde o reálnou nahotu, už jenom fakt, že někdo uvidí, jak jiný člověk přibližně vypadá nahý, lze vnímat jako narušení soukromí a pocitu intimity. „Děti by vůbec neměly být potenciálně pornografickému obsahu vystavovány – a platí to i pro počítačově či jinak upravované materiály.“


Rady pro rodiče, jak o nebezpečí mluvit s dětmi
  • Otevřeně s dětmi rozmlouvejte o nebezpečí sdílení obrázků na internetu.
  • Pravidelně se dívejte, jaké aplikace a webové stránky vaše děti používají.
  • Poučte je o možném zneužití snímků a důležitosti ochrany soukromí.
  • Zajistěte, aby děti na svých účtech na sociálních sítích měly nastavené co nejvyšší soukromí.
Pokud budou děti zvyklé s rodiči otevřeně komunikovat, je větší šance, že se na ně dítě v případě problémů s důvěrou obrátí. Účinná obrana proti zneužití fotek nyní pravděpodobně neexistuje. Je ale možné se dodatečně bránit, protože například šíření dětské pornografie samozřejmě trestné je. Stejně jako je trestné rozesílání pornografie dětem.

„Pro další rozvoj umělé inteligence bude zásadní, aby na zajištění odpovědného a etického využívání těchto technologií spolupracovali lidé napříč celou společností, včetně technologických firem a regulačních orgánů,“ zdůrazňuje Corrons. „S ohledem na potenciální škody a traumata, které technologie mohou jednotlivcům způsobit, je nezbytné přistupovat k tomuto problému citlivě a opatrně.“
...a o jakých tématech se po dnešním Googlení začne na ČEPEKu mluvit?
Uživatelský avatar
podivin
Administrátor
Líbí se mi: Dívky a ženy
ve věku od: 2
ve věku do: 40
Výkřik do tmy: Srdce plné lásky přetéká v slzách očima *** Když někoho miluješ, znamená pro tebe víc než ty sám a chceš pro něj jen to nejlepší, ikdyby to tobě mělo působit bolest *** Ikdyž jsou to "jen" děti, mají mou úctu a chovám se k nim slušně *** Moc, peníze ani sex nemůžou nahradit dětskou radost, smích a lásku. *** Čiň, co chceš, pokud nikomu neškodíš *** Každý čin se ti třikrát vrátí
Příspěvky: 1731
Dal: 2061 poděkování
Dostal: 868 poděkování

Re: Umělá inteligence je schopná generovat dětskou pornografii, komplikuje pátrání po reálných obětech (iROZHLAS)

Nový příspěvek od podivin »

Vidim v tom dvě pozitivní věci.

Jednak by konečně lidi mohli pochopit, že na internetu nemohou věřit nikdy ničemu jistě, ale informace musí ověřovat.

A pak by tyhle fake fotky s nahými lidmi mohly pomoct rozmachu naturismu, nebo aspoň přijmout nahotu, jako něco přirozeného. Lidi by měli pochopit, že nahota není nic hrozného, nedělat z nahoty horor a že každé tělo je jiné a není důvod se za své tělo stydět. Až lidi z nahoty přestanou dělat tragédii, tak pro tyhle kretény přestane mít smysl generovat fotky s nahatými lidmi ("Ty máš fotky, kde jsem nahatá? No a co jako?").
Je mi krásně smutno. Tequila chutná nejlíp se solí. Při sprchování není vidět pláč. S plným srdcem lásky žiji prázdné dny.
Now I know that I am a dreamer, Believing in a world that isn't there
You are my little something, It's like you came from nothing, And now you're everything to me
Život nemá tlačítko Restart - promrhané roky nelze vrátit a prožít znovu
Stačí zavřít oči a všechno se stane. Stačí zavřít oči a ... všechno skončí
Uživatelský avatar
Bouře
Globální moderátorka
Bydliště: Internet
Líbí se mi: Muži
ve věku od: 18
ve věku do: 40
Kontakt: [email protected]
Výkřik do tmy: Anti-contact MAP ally
Příspěvky: 1069
Dal: 1178 poděkování
Dostal: 1301 poděkování

Re: Umělá inteligence je schopná generovat dětskou pornografii, komplikuje pátrání po reálných obětech (iROZHLAS)

Nový příspěvek od Bouře »

podivin píše: středa 4. 10. 2023, 22:23:05 Vidim v tom dvě pozitivní věci.

Jednak by konečně lidi mohli pochopit, že na internetu nemohou věřit nikdy ničemu jistě, ale informace musí ověřovat.
To ano, ale také se trochu bojím, že bude všechno daleko hůře ověřitelné a fotky ani nahrávky v budoucnu nebudou moci sloužit jako důkazy. Taktéž je podle mě nemožné si o každém příspěvku, tweetu, komentáři na internetu dělat nějaký větší research. Možná tak jednou nebude platit pravidlo "nevěř všemu, co je na internetu" ale "Nevěř ničemu, co není ověřeno". Dobré video o tom natočil Segment (celkově má skvělou tvorbu, doporučuji mrknout :) ), i když zde je to zaměřeno spíš na Tiktok, ale přiměl mě k tomu se nad tím víc zamyslet...
Třeba jednou AI dosáhne takové úrovně, že se jen tak zaregistruje na tohle fórum, a bude působit tak moc přesvědčivě, že nikdo nerozezná, že je to AI a takhle tu bude fungovat třeba několik měsíců nebo i let... Docela děsivá myšlenka, ale čím dál víc si myslím že není nemožná... :)

AI přinese spoustu změn a i pozitivních, ale bude se muset začít řešit, jinak to také může dopadnout zle.
podivin píše: středa 4. 10. 2023, 22:23:05 A pak by tyhle fake fotky s nahými lidmi mohly pomoct rozmachu naturismu, nebo aspoň přijmout nahotu, jako něco přirozeného. Lidi by měli pochopit, že nahota není nic hrozného, nedělat z nahoty horor a že každé tělo je jiné a není důvod se za své tělo stydět. Až lidi z nahoty přestanou dělat tragédii, tak pro tyhle kretény přestane mít smysl generovat fotky s nahatými lidmi ("Ty máš fotky, kde jsem nahatá? No a co jako?").
Když nebude zneužitelná nahota, vygenerují s daným člověkem porno nebo cokoliv jiného. :) Kdo chce psa bít, hůl si vždy najde.
Skálu pěstí nerozbiješ, ale i ten nejtvrdší kámen proroste květina. Jen to chce čas.
Nechceš-li být odsuzován za svou odlišnost, nesuď za odlišnost jiné a neubližuj zranitelným.
Who wants peace shall prepare for war
Uživatelský avatar
Cykle02
Mediální analytik
Líbí se mi: Chlapci i dívky
ve věku od: 2
ve věku do: 12
Výkřik do tmy: Nevěřím těm co nevěří na Ježíška.
Příspěvky: 6278
Dal: 364 poděkování
Dostal: 2646 poděkování

Re: Umělá inteligence je schopná generovat dětskou pornografii, komplikuje pátrání po reálných obětech (iROZHLAS)

Nový příspěvek od Cykle02 »


Spojené státy a Spojené království se zavázaly vyvinout a financovat nové schopnosti, aby zastavily šíření chorobných obrázků dětí generovaných umělou inteligencí.

Spojené království a USA se spojily v boji proti nárůstu obrázků sexuálního zneužívání dětí generovaných programy umělé inteligence (AI).

Ministryně vnitra Suella Bravermanová se spolu s ministrem vnitřní bezpečnosti USA Alejandrem Mayorkasem zavázala prozkoumat další společnou akci k řešení znepokojivého nárůstu opovrženíhodných obrázků dětí sexuálně zneužívaných pedofily generovaných umělou inteligencí.

Obě země vydaly společné prohlášení , ve kterém se zavázaly spolupracovat na inovaci a prozkoumávání vývoje nových řešení v boji proti šíření těchto snímků, vytvořených zkaženými predátory, a vyzvaly další národy, aby se k nim připojily.

Přichází během návštěvy ministryně vnitra ve Washingtonu tento týden, kde navštívila Národní centrum pro pohřešované a zneužívané děti (NCMEC), organizaci na ochranu dětí se sídlem v USA, jejíž práce zahrnuje hlášení případů pohlavního zneužívání dětí online světovým donucovacím orgánům.

Ministryně vnitra Suella Bravermanová řekla:

  • Sexuální zneužívání dětí je skutečně ohavným zločinem a jednou z výzev naší doby. Jeho šíření online nerespektuje hranice a musí se proti němu bojovat po celém světě.
  • Proto pracujeme na tom, abychom se vypořádali s odporným nárůstem zobrazování sexuálního zneužívání dětí generovaných umělou inteligencí, které podněcuje pedofily k páchání dalších trestných činů a také brání orgánům činným v trestním řízení najít skutečné oběti online.
  • Je proto životně důležité, abychom na jeho řešení spolupracovali ruku v ruce s našimi blízkými partnery v USA. Chválím Národní centrum pro pohřešované a zneužívané děti (NCMEC), které neúnavně pracuje na tom, aby byly děti po celém světě v bezpečí. Společnosti sociálních médií musí převzít odpovědnost a upřednostňovat bezpečnost dětí na svých platformách.
Vyšetřování Internet Watch Foundation zjistilo, že obrázky zneužívaných dětí – včetně miminek a batolat – generované umělou inteligencí přibývají, přičemž některé zobrazují nejhorší druh trestného činu podle britského a amerického práva. Organizace také odhalila online „manuál“ věnovaný pomoci pachatelům vylepšovat jejich výzvy a trénovat umělou inteligenci, aby přinášela stále realističtější výsledky.

Vzestup je znepokojivý, přičemž orgány činné v trestním řízení a charitativní organizace jsou přesvědčeny, že nárůst materiálů týkajících se sexuálního zneužívání dětí podpoří normalizaci trestné činnosti a povede k tomu, že se terčem více dětí stane.

Nárůst obrázků generovaných umělou inteligencí by také mohl zpomalit orgány činné v trestním řízení ve sledování a identifikaci obětí sexuálního zneužívání dětí a odhalování pachatelů a jejich postavení před soud.

Některé technologie umělé inteligence navíc umožňují pachatelům vytvářet nové obrázky z neškodných snímků. Například; prostřednictvím procesu známého jako malování mohou pachatelé zcela odstranit části oblečení nebo zaměnit něčí obličej za neslušné obrázky skutečných dětí.

Návštěva ministra vnitra přichází týden po zahájení kampaně vyzývající společnost Meta, aby na svých platformách nezaváděla šifrování typu end-to-end bez robustních bezpečnostních opatření, která zajistí ochranu dětí před sexuálním zneužíváním a vykořisťováním v kanálech pro zasílání zpráv.

V současné době je donucovacími orgány Spojeného království zatčeno 800 predátorů měsíčně a až 1200 dětí je chráněno před sexuálním zneužíváním dětí na základě informací poskytnutých společnostmi sociálních médií. Pokud bude Meta pokračovat ve svých plánech, nebude již schopna odhalovat zneužívání dětí na jejich platformách. Národní kriminální agentura (NCA) odhaduje, že 92 % Facebook Messengeru a 85 % Instagram Direct doporučení může být ztraceno – což znamená, že tisíce zločinců ročně mohou zůstat neodhaleny.

Partnerství s USA také následuje po schválení zákona o online bezpečnosti, který minulý týden prošel parlamentem.

Obsah týkající se sexuálního vykořisťování a zneužívání dětí vytvořený umělou inteligencí je nezákonný, bez ohledu na to, zda zobrazuje skutečné dítě či nikoli. Podle vládního přelomového zákona budou technologické společnosti povinny proaktivně identifikovat obsah a odstranit jej. Návrh zákona je záměrně technologicky neutrální, aby bylo zajištěno, že bude držet krok s novými technologiemi, jako je umělá inteligence, a služby budou mít povinnost zastavit šíření nezákonného obsahu, jako je sexuální zneužívání dětí, teroristický materiál a podvody. Ofcom bude mít pravomoc nasměrovat společnosti, aby buď používaly technologii k identifikaci a odstraňování obsahu CSEA, nebo vyvinuly maximální úsilí o vývoj nebo zdroj technologie.

Vlády také rychle pracují na prohloubení našeho porozumění rizikům a vývoji řešení, která AI představuje, včetně vytvoření pracovní skupiny AI a pořádání prvního globálního summitu o bezpečnosti AI letos na podzim.

Zatímco základní modely umělé inteligence mají nepochybně obrovský potenciál a jsou klíčové pro poslání Spojeného království stát se vědeckou a technologickou supervelmocí a lídrem v oblasti bezpečné a odpovědné umělé inteligence, stále existuje mnoho neznámých s touto třídou technologií, které představují významné, ale ještě ne zcela úplné. chápali rizika pro veřejnou bezpečnost a národní bezpečnost.

Spojené království se těší na otevřený dialog a prohloubenou spolupráci s vedoucími představiteli technologických společností, odborníky v oboru a podobně smýšlejícími národy, protože se snažíme zajistit, aby byly dary této technologie poskytovány a společnost byla chráněna.
...a o jakých tématech se po dnešním Googlení začne na ČEPEKu mluvit?
Uživatelský avatar
Dreamer
Člen skupiny ČEPEK
Bydliště: Všude možně
Líbí se mi: Dívky
ve věku od: 2
ve věku do: 10
Výkřik do tmy: Nemiluju holčičky, protože jsem pedofil. Jsem pedofil, protože miluju holčičky.
Příspěvky: 1363
Dal: 1600 poděkování
Dostal: 817 poděkování

Re: Umělá inteligence je schopná generovat dětskou pornografii, komplikuje pátrání po reálných obětech (iROZHLAS)

Nový příspěvek od Dreamer »

Cykle02 píše: pondělí 9. 10. 2023, 9:21:48 Chorobné obrázky, zkažení predátoři, ohavný zločin, odporný nárůst, podněcuje pedofily, životně důležité...
Existenci lidstva ohrožující nemravnost.
Cykle02 píše: pondělí 9. 10. 2023, 9:21:48 Sexuální zneužívání dětí generovaných umělou inteligencí.
Otřesný. A roboti pracující v továrnách a skladech až 37 hodin denně bez pauzy na toaletu, to mě taky moc trápí.
Cykle02 píše: pondělí 9. 10. 2023, 9:21:48 Například; prostřednictvím procesu známého jako malování mohou pachatelé zcela odstranit části oblečení nebo zaměnit něčí obličej za neslušné obrázky skutečných dětí.
Neslýchané. Ještě že to někdo řeší.
Cykle02 píše: pondělí 9. 10. 2023, 9:21:48 V současné době je donucovacími orgány Spojeného království zatčeno 800 predátorů měsíčně.
Doufám, že staví dost věznic.
Cykle02 píše: pondělí 9. 10. 2023, 9:21:48 ...a služby budou mít povinnost zastavit šíření nezákonného obsahu, jako je sexuální zneužívání dětí, teroristický materiál a podvody.
A já myslel, že jim jde jen o ty chorobné obrázky...
Uživatelský avatar
Cykle02
Mediální analytik
Líbí se mi: Chlapci i dívky
ve věku od: 2
ve věku do: 12
Výkřik do tmy: Nevěřím těm co nevěří na Ježíška.
Příspěvky: 6278
Dal: 364 poděkování
Dostal: 2646 poděkování

Re: Umělá inteligence je schopná generovat dětskou pornografii, komplikuje pátrání po reálných obětech (iROZHLAS)

Nový příspěvek od Cykle02 »


Dopady aplikací na generování nahých fotek už pocítily i ženy v Česku. Redakce hovořila se dvěma, jejichž falešné snímky kolovaly po internetu. Nejsou prý ale zdaleka samy. Ozvaly se jim desítky dalších s podobnou zkušeností.

Že po síti Telegram koluje její uměle vytvořený, nahý snímek, se čtyřiadvacetiletá žena dozvěděla náhodou. Snímek z narozeninové party někdo stáhl z jejích sociálních sítí.

Zatímco na originálu má na sobě fialkové šaty, na snímku upraveném umělou inteligencí už se usmívá do objektivu zcela nahá.

„Ozvala se mi nějaká slečna na instagramu, že má moji fotku ze skupiny na Telegramu a jestli ji chci poslat, s čímž jsem samozřejmě souhlasila,“ vypráví influencerka Victoriya Michshenko.

Když zjistila, co se stalo, rozhodla se svou zkušenost sdílet na sociálních sítích, čímž strhla lavinu. Začaly se jí totiž ozývat desítky dívek. „V reakci na to mi napsalo strašně moc dalších slečen, že se jim stalo to samé, a některé už s tím dokonce byly i na policii,“ říká Michshenko.

Podobnou zkušeností si v posledních dnech prošla i jednadvacetiletá Sophie Šarláková, která na sociálních sítích také vystupuje jako influencerka.

„Nejdřív mi asi před měsícem od dotyčného, který mi pak poslal ty fotky, přišla vulgární zpráva. To jsem ignorovala, ale pak se ozval znova s tím, že pomocí AI dokáže vygenerovat moji nahou fotku,“ popisuje dívka s tím, že aktuálně je profil, ze kterého jí zprávy chodily, už smazaný.

Kopii konverzace mladá žena zveřejnila na svém profilu. „Ozvala se mi spousta holek s tím, že tenhle kluk je známá firma. Rozesílá nahé fotky a vlastnil i nějakou stránku na instagramu, kde sdílel nahé fotky dalších holek,“ říká Šarláková.

Když jí pak od dotyčného přibližně po dvou týdnech přišla fotomontáž, na níž byla nahá, rozhodla se celou věc předat k prošetření policii.

„Osobně jsem z toho nebyla nějak špatná, bylo mi to svým způsobem jedno, protože to nevypadalo moc realisticky, ale spíš jsem se bála o to, že to může udělat komukoliv dalšímu,“ vysvětluje Šarláková, co ji nakonec přimělo vypravit se na policejní stanici.

Efektivní rada podle policie neexistuje

Na policii se ale mladá dívka dozvěděla, že se bude jednat maximálně o přestupek. „Řekli mi, že jakmile jsem tu fotku dala na internet, může si ji bohužel stáhnout každý. Prý to předají nějakému analytikovi, aby se na to podíval, ale nepůsobilo to na mě tak, že by měli nějaký velký zájem to řešit,“ dodává Šarláková.

Vytvořit takovou fotografii není s technologiemi, které jsou dnes na internetu k dispozici, nic komplikovaného. Jestliže se ale nejedná o explicitní snímky nezletilých dětí, nelze samotné zveřejnění falešné nahé fotografie podle mluvčího Policejního prezidia kvalifikovat jako trestný čin.

„Pokud ale dojde ke zveřejnění, respektive vyhrožování umístěním fotografie na sociální sítě, tak může být teoreticky naplněna skutková podstata trestného činu,“ vysvětluje policejní mluvčí Ondřej Moravčík.

Současně doplňuje, že popisované případy by mohly být kvalifikovány jako přestupek proti občanskému soužití.

„U popisovaného jednání je vždy klíčová subjektivní stránka, což jinými slovy znamená, že poškozená musí cítit zveřejnění jako svoji újmu a musí toto oznámit na policii,“ konstatuje mluvčí Moravčík. Kolik podobných případů už policie řešila, není – s ohledem na to, že se většinově nejedná o trestný čin – možné říci.


Myslím si, že tady nesmíme posuzovat pouze dopad na konkrétního jedince, ale musíme hodnotit škodlivý potenciál té aktivity stejně jako třeba u znásilnění. Radek Ptáček, klinický psycholog

Doporučení, jak předcházet tomu, aby se vaše publikované fotografie nestaly materiálem pro podobnou montáž, policie nemá. Podle Moravčíka žádná preventivní rada neexistuje, jelikož aplikace dokáže vytvořit montáž z jakékoliv volně přístupné fotky, a to s využitím minima zdrojových dat.

„V praxi je tedy nejlepším řešením kontaktovat své přátele, upozornit je na to, že někdo vytvořil a zveřejnil takovouto fotomontáž, a ubezpečit je, že na snímku skutečně nejsem já a jedná se o montáž,“ radí mluvčí.

„Kdybych byla teenager“

Obě ženy se ale obrátily na policii zejména kvůli obavám o to, že by se obětí takového jednání mohl stát i někdo o pár let mladší, kdo by se s podobnou zkušeností mohl vyrovnávat podstatně hůř než ony.

„Mě to nijak nezasáhlo, protože už mám v tomhle ohledu srovnanou psychiku a jsem dospělá, ale kdybych byla teenager a někdo mi tohle udělal, tak bych se asi zhroutila nebo změnila školu. Myslím si, že někoho mladšího by to mohlo hodně poznamenat, nebo přerůst v šikanu,“ nastiňuje čtyřiadvacetiletá Victoriya možné černé dopady.

Možnost závažné psychické újmy v takových případech nicméně potvrzuje i klinický psycholog Radek Ptáček.

„Každý má nějaké své vlastní sebepojetí a zároveň žijeme v sociálním světě, kde je pro nás důležité i to, jak nás vidí druzí lidé. A jestliže náš obraz, který o sobě vytváříme ve společnosti, něco naruší, může to mít poměrně výrazně destruktivní dopady,“ vysvětluje odborník.

Důsledky podobné zkušenosti se pak mohou podle Ptáčka projevit například formou stažení se ze sociálního života, úzkostmi nebo depresivními stavy. „Děti a dospívající si navíc vlastní identitu teprve budují, takže tam mohou být dopady obzvláště závažné,“ psycholog.

Závěrem pak upozorňuje na to, že je důležité akcentovat zejména škodlivý potenciál takového jednání – podobně jako v případě znásilnění.

„Přestože taková zkušenost může třeba policii nebo komukoliv dalšímu připadat jako bezvýznamná epizoda, měli bychom to v rámci společnosti vnímat jako něco velmi závažného, co skutečně dovede – zvláště mladého člověka – velmi závažně poškodit,“ uzavírá Ptáček.
...a o jakých tématech se po dnešním Googlení začne na ČEPEKu mluvit?
Uživatelský avatar
Cykle02
Mediální analytik
Líbí se mi: Chlapci i dívky
ve věku od: 2
ve věku do: 12
Výkřik do tmy: Nevěřím těm co nevěří na Ježíška.
Příspěvky: 6278
Dal: 364 poděkování
Dostal: 2646 poděkování

Re: Umělá inteligence je schopná generovat dětskou pornografii, komplikuje pátrání po reálných obětech (iROZHLAS)

Nový příspěvek od Cykle02 »


V posledních dnech se v médiích objevila řada zpráv o tom, že uživatelé pomocí volně dostupných nástrojů umělé inteligence začali generovat pornografický obsah zahrnující jak děti, tak i dospělé. Pro laika (ale i experta) je pak často velmi obtížné rozpoznat, kdy jde o autentickou fotografii a kdy produkt inteligentního software využívajícího umělou inteligenci. Nástroje, které generování tohoto obsahu umožňují, jsou přitom volně dostupné - tvorba tohoto obsahu je tedy velmi snadná - a také nebezpečná.

Úvodem je třeba říci, že umělá inteligence byla vždy se světem pornografie propojena a první videa, která vznikla pomocí tzv. deep fake technologií, se vztahovala právě k pornografii. Již před několika lety tak dokázaly pokročilejší aplikace využívající neurální sítě a strojové učení pracovat s lidským tělem, jejich výsledky však nebyly skvělé, výsledné výstupy byly často v nízkém rozlišení, vytvořit je trvalo poměrně dlouho a bylo poměrně snadné je rozpoznat.

Nyní však, s postupem času a vývojem technologií, jsou produkty generované umělou inteligencí čím dál tím více přesvědčivé, což představuje vážný problém, pokud se jedná o obsah, který zahrnuje děti nebo dospělé (nejen) v kompromitujících situacích. Jinými slovy - umělá inteligence např. nabízí rychlou a levnou výrobu dětské pornografie, stejně tak dokáže doslova svléknout jakoukoliv ženu, ke které software dostane referenční fotografii.

Prvním problémem je tedy zcela jistě narušení soukromí - kdokoli může vzít naši fotografii a vytvořit z ní fotografii kompromitující, kterou pak může šířit internetem a poškodit naši pověst, zničit náš soukromý život, zastavit naši kariéru apod. Ve výhodě jsou zatím muži, protože běžně dostupné nástroje pro generování pornografie zatím na “mužskou hlavu” nasazují “ženské tělo”, je však otázkou času než vzniknou nástroje zaměřené i na muže.

Vygenerované nahé tělo může být také zneužito v rámci trestné činnosti - pomocí těchto materiálů se můžeme stát terčem vydírání, vyhrožování, zastrašování apod. Toto se v minulosti také velmi často děje, ostatně fenomény jako je sextortion či revenge porn jsou již dnes běžné známé a popsané - ovšem využívaly vždy intimní materiály, které jim oběti poskytly (dobrovolně či pod nátlakem). Nyní jsme ovšem v situaci, kdy si tyto materiály může opatřit v podstatě kdokoli - a to pouze s využitím běžného obsahu sociální sítě - třeba Instagramu. Nástroje, které generování pornografie umožňují, jsou v online prostředí běžně dostupné (není třeba si např. stahovat si model AI do svého počítače) - a lze předpokládat, že jejich počet se rozroste.

Samostatným problémem je pak samozřejmě generování dětské pornografie, kterou může vytvořit s použitím vhodného nástroje kdokoli (včetně pedofilně orientovaných uživatelů). Ostatně toto se již děje - připomeňme si např. případ ze Španělska, kdy dětskou pornografii vytvořily s využitím umělé inteligence děti ve věku 12-13 let. Problém je také to, že záplava generované dětské pornografie může ztížit práci policistům, pro které bude obtížné identifikovat, zda došlo ke skutečné újmě na konkrétním dítěti, nebo zda jde pouze o produkt digitální technologie. 

Právní pohled na počítačem generovanou dětskou pornografii vychází z toho, že za dětskou pornografii se nepovažují pouze fotografie reálných dětí (osob mladších 18 let), ale také pornografická díla, v nichž vystupují postavy vytvořené např. pomocí počítačové animace, která realisticky znázorňují právě děti. Za dětskou pornografii lze tedy považovat i fotografie i videa (ale také třeba kresby) vytvořená prostřednictvím umělé inteligence a jejich tvůrce s využitím zákonné úpravy trestat.

Jen pro zajímavost, podle výzkumu 2023 State of Deepfakes vzrostl počet deepfake videí ve srovnání s rokem 2019 o 550 procent, přičemž 98 % všech těchto videí je tvořeno právě videi pornografickými. V 99 % jsou pak ve videích zachyceny ženy. Každý třetí nástroj pro tvorbu deepfake videí také umožňuje vytvářet pornografický obsah.

Přestože lze počítat s tím, že vznikne celá řada technologií umožňujících vygenerovaný obsah rozpoznat, v tomto případě však již škoda bude napáchána - v okamžiku zveřejnění a rozšíření citlivého materiálu po síti. 

Je nezbytné, aby státy a mezinárodní organizace podnikly kroky k regulaci a kontrole technologií generativní umělé inteligence, které umožňují vytváření takového - často nelegálního - obsahu. To zahrnuje zavedení přísnějších zákonů týkajících se uměle generované pornografie, vytváření standardů pro softwarové nástroje, které generují takový obsah, a podporu výzkumu technologií pro rozpoznání a odhalení deepfake obsahu. Nesmíme zpomenout také na osvětu a systematické vzdělávání všech - dětí i dospělých.

Pro E-Bezpečí
Kamil Kopecký
Univerzita Palackého v Olomouci

Zdroje:

https://www.seznamzpravy.cz/clanek/tech-ai-umela-inteligence-umela-inteligence-tvori-detskou-pornografii-je-nemozne-ji-zastavit-233310

https://www.irozhlas.cz/veda-technologie/technologie/detska-pornografie-umela-inteligence-pedofil_2306202300_bko

https://www.investigace.cz/zesveta-detska-pornografie/

https://www.olemartinmoen.com/wp-content/uploads/Pedophilia-and-Computer-Generated-Child-Pornography.pdf

https://www.novinky.cz/clanek/internet-a-pc-nahe-fotomontaze-nezletilych-divek-ve-spanelsku-jde-jen-o-spicku-ledovce-40444085?

https://www.novinky.cz/clanek/zahranicni-evropa-fotky-nahych-nezletilych-divek-ve-spanelsku-vytvorily-pomoci-umele-inteligence-deti-40444352

https://www.washingtonpost.com/technology/2023/06/19/artificial-intelligence-child-sex-abuse-images/

https://www.euronews.com/next/2023/10/20/generative-ai-fueling-spread-of-deepfake-pornography-across-the-internet

https://www.homesecurityheroes.com/state-of-deepfakes/#key-findings
...a o jakých tématech se po dnešním Googlení začne na ČEPEKu mluvit?
Uživatelský avatar
podivin
Administrátor
Líbí se mi: Dívky a ženy
ve věku od: 2
ve věku do: 40
Výkřik do tmy: Srdce plné lásky přetéká v slzách očima *** Když někoho miluješ, znamená pro tebe víc než ty sám a chceš pro něj jen to nejlepší, ikdyby to tobě mělo působit bolest *** Ikdyž jsou to "jen" děti, mají mou úctu a chovám se k nim slušně *** Moc, peníze ani sex nemůžou nahradit dětskou radost, smích a lásku. *** Čiň, co chceš, pokud nikomu neškodíš *** Každý čin se ti třikrát vrátí
Příspěvky: 1731
Dal: 2061 poděkování
Dostal: 868 poděkování

Re: Umělá inteligence je schopná generovat dětskou pornografii, komplikuje pátrání po reálných obětech (iROZHLAS)

Nový příspěvek od podivin »

článek píše: úterý 24. 10. 2023, 8:31:42 Vygenerované nahé tělo může být také zneužito v rámci trestné činnosti - pomocí těchto materiálů se můžeme stát terčem vydírání, vyhrožování, zastrašování apod. o produkt digitální technologie.
Tvůrce "Terminátora" asi nenapadlo, že za pár let nebudeme řešit problém AI ve spojení se zbraněmi a roboty, ale s tvorbou fake-pornografie :(
článek píše: úterý 24. 10. 2023, 8:31:42 Nyní však, s postupem času a vývojem technologií, jsou produkty generované umělou inteligencí čím dál tím více přesvědčivé, což představuje vážný problém, pokud se jedná o obsah, který zahrnuje děti nebo dospělé (nejen) v kompromitujících situacích. Jinými slovy - umělá inteligence např. nabízí rychlou a levnou výrobu dětské pornografie, stejně tak dokáže doslova svléknout jakoukoliv ženu, ke které software dostane referenční fotografii.
Prvním problémem je tedy zcela jistě narušení soukromí - kdokoli může vzít naši fotografii a vytvořit z ní fotografii kompromitující, kterou pak může šířit internetem a poškodit naši pověst, zničit náš soukromý život, zastavit naši kariéru apod.
Vygenerované nahé tělo může být také zneužito v rámci trestné činnosti - pomocí těchto materiálů se můžeme stát terčem vydírání, vyhrožování, zastrašování apod.Nyní jsme ovšem v situaci, kdy si tyto materiály může opatřit v podstatě kdokoli - a to pouze s využitím běžného obsahu sociální sítě - třeba Instagramu. Nástroje, které generování pornografie umožňují, jsou v online prostředí běžně dostupné (není třeba si např. stahovat si model AI do svého počítače) - a lze předpokládat, že jejich počet se rozroste.
A nebo, jak už jsem psal, je to nyní šance, jak se společnost naučí nedůvěřovat žádným obrazovým mateirálům na internetu a erotické/pornografické fotografie nikdo nebude spojovat s osobou, jejíž obličej je u nahatého těla. Čili ani reálné erotické fotografie nebude člověk spojovat s tou osobou. Všichni budou vědět, že to jsou fake fotografie, takže vyděrači nebudou moct nikomu vyhrožovat "nebo to zveřejním a všichni tě uvidí", protože nikdo nebude věřit, že to je skutečně ta osoba. Dokud to sama ta osoba nepotvrdí.
článek píše: úterý 24. 10. 2023, 8:31:42 Samostatným problémem je pak samozřejmě generování dětské pornografie, kterou může vytvořit s použitím vhodného nástroje kdokoli (včetně pedofilně orientovaných uživatelů). Ostatně toto se již děje - připomeňme si např. případ ze Španělska, kdy dětskou pornografii vytvořily s využitím umělé inteligence děti ve věku 12-13 let. Problém je také to, že záplava generované dětské pornografie může ztížit práci policistům, pro které bude obtížné identifikovat, zda došlo ke skutečné újmě na konkrétním dítěti, nebo zda jde pouze o produkt digitální technologie. 
Už několikrát jsem přemýšlel, opravdu jen úvaha (možná jsem zase moc naivní nebo hloupej). Pokud by bylo možné generovat pomocí AI DP legálně, jednoduše, zdarma, bez rizika, bez problémů s nucením dětí do výroby DP, bez problémů, jak zahladit stopy, případně, jak se zbavit mrtvého dítěte, budou chtít opravdu ti zločinci vynakládat námahu na hledání a unášení dětí, nucení je do DP, vyhrožovat jim, riskovat odhalení, případně se o ně nějak starat (potrava, nocleh, ošacení), aby jim po pár dnech děti neumřely, kdyby je někde drželi, aby snížili riziko, že se dítě někde prořekne nebo si jeho stavu někdo všimne?

Je to trochu podobná otázka jako, kdyby samotné státy prodávaly legálně drogy, tak by přece musela vymizet kriminalita spojená s výrobou, distribucí a konzumací drog, protože by si každý mohl koupit drogu za dostupnou cenu (drogy jsou drahé, protože je nezákonné je vyrábět a distrubuovat), navíc by narkomani dostali informace o rizicích a správném užívání, byli by víc pod kontrolou. (neberu drogy, jen o tom přemýšlím, důvody proti mi můžete napsat emailem nebo SZ). A kdyby podobně fungovalo generované DP, tak by nebyl důvod, proč by někdo musel tvořit reálné DP. (nechci tu teď polemizovat o tom, zda DP, ať reálné nebo generované, zvyšuje touhu po skutečném zneužití reálného dítěte - osobně bych raději nechtěl sledovat ani generované DP - buď by mi to bylo líto, že nic takového nezažiju nebo bych to naopak chtěl zažít a do téhle situace se dostat nechci).
Je mi krásně smutno. Tequila chutná nejlíp se solí. Při sprchování není vidět pláč. S plným srdcem lásky žiji prázdné dny.
Now I know that I am a dreamer, Believing in a world that isn't there
You are my little something, It's like you came from nothing, And now you're everything to me
Život nemá tlačítko Restart - promrhané roky nelze vrátit a prožít znovu
Stačí zavřít oči a všechno se stane. Stačí zavřít oči a ... všechno skončí
Uživatelský avatar
Dreamer
Člen skupiny ČEPEK
Bydliště: Všude možně
Líbí se mi: Dívky
ve věku od: 2
ve věku do: 10
Výkřik do tmy: Nemiluju holčičky, protože jsem pedofil. Jsem pedofil, protože miluju holčičky.
Příspěvky: 1363
Dal: 1600 poděkování
Dostal: 817 poděkování

Re: Umělá inteligence je schopná generovat dětskou pornografii, komplikuje pátrání po reálných obětech (iROZHLAS)

Nový příspěvek od Dreamer »

Marihuana je levná, protože je bez daně.
Jakou spotřební daň by asi dali na DP?
Kdo bude chtít, ten si to vygeneruje, bez ohledu na zákony.
Uživatelský avatar
podivin
Administrátor
Líbí se mi: Dívky a ženy
ve věku od: 2
ve věku do: 40
Výkřik do tmy: Srdce plné lásky přetéká v slzách očima *** Když někoho miluješ, znamená pro tebe víc než ty sám a chceš pro něj jen to nejlepší, ikdyby to tobě mělo působit bolest *** Ikdyž jsou to "jen" děti, mají mou úctu a chovám se k nim slušně *** Moc, peníze ani sex nemůžou nahradit dětskou radost, smích a lásku. *** Čiň, co chceš, pokud nikomu neškodíš *** Každý čin se ti třikrát vrátí
Příspěvky: 1731
Dal: 2061 poděkování
Dostal: 868 poděkování

Re: Umělá inteligence je schopná generovat dětskou pornografii, komplikuje pátrání po reálných obětech (iROZHLAS)

Nový příspěvek od podivin »

Asi jsem se nějak nepřesně vyjádřil.
Dreamer píše: středa 25. 10. 2023, 10:31:01Marihuana je levná, protože je bez daně.
Tak Marihuana je dost specifický případ. Jednak se v lékárnách prodává léčebné konopí, navíc pěstování asi do 5 rostlin a přechovávání do určitého množství je pouze přestupek.

Ale já spíš myslím tvrdé drogy. U těch také není žádná daň, tak proč je cena vysoká? Protože je riziko s výrobou, distribucí, drogové kartely mají samozřejmě ztráty, když policie nějakou dodávku najde. Kvůli vysoké ceně a protože konzumenti drog obvykle nemají dostatečný příjem, tak obvykle páchají další trestnou činnost. Obvykle to i s dávkováním přehání, takže pak mají zdravotní problémy, neudrží si ani to nejjednodušší zaměstnání.

Podobně, jako se stalo s prohibicí v americe. Místo vyřešní problému se stal přesný opak a situace se o hodně zhoršila.
V roce 1919 byl schválen tzv. Volsteadův zákon (Volstead Act), který definoval alkoholické nápoje včetně výjimek, a 16. ledna 1919 byl rovněž ratifikován 18. dodatek americké ústavy, který prohibici zavedl. Účinek byl ovšem přesně opačný; místo snížení zločinnosti a abstinence se začalo pít ještě víc a zločinnost narůstala nevídaným tempem. Vznikly gangy zabývající se pašováním alkoholu do USA. Až na samotný zločinecký vrchol se prodral – dnes už téměř legendární – gangster jménem Al Capone sídlící v Chicagu. Toto město se stalo známým centrem všeho zločinu; od pašování přes vyloupení bank až po vraždy na objednávku, jako byl např. Masakr na den svatého Valentýna, kdy vrazi gangu Al Caponeho převlečení za policisty vystříleli konkurenční gang. Volsteadův zákon způsobil, že lidé pili prakticky všechno, o čem se domnívali, že obsahuje alkohol, což mělo za následek mnoho otrav alkoholem. Situace se zklidnila až v roce 1931, kdy byl Al Capone zatčen za neplacení daní a odsouzen do Alcatrazu – známého ostrovního vězení. Prohibice úplně skončila v roce 1933 v situaci, kdy v USA bylo 3× více tajných barů než v roce 1919.
Moje úvaha je, kdyby stát dovolil nějakým firmám vyrábět drogy legálně, prodával je, konzumety poučoval o přijatelném dávkování, tak by možná takové problémy být nemusely. Cigarety a alkohol jsou také legální, přitom dokážou také dost ničit životy (samozřejmě, tvrdé drogy víc, ale i tak).

(A já opravdu drogy neberu a nechci brát, jen prostě uvažuju, jestli by to situaci nezlepšilo. Zákaz drog opravdu drogovou závislost neřeší a nevyřešilo. Kontrolovaná legalizace by možná mohla.)
Dreamer píše: středa 25. 10. 2023, 10:31:01Jakou spotřební daň by asi dali na DP?
Nemluvim vůbec o žádné dani. Mluvim o tom, že teď se točí reálná DP s dětma. Nevim to přesně, ale předpokládám, že ti, kdo to točí, tak z toho něco mají. Pochybuju, že by jen tak riskovali kriminál jen pro anonymní "slávu" (nemohou se k tomu ani oficiálně přihlásit), že oni natočili nějaké DP. Předpokládám teda, že z toho mají prachy.

Kdyby se mohlo legálně generovat DP pomocí AI, tak by přece logicky konzumenti neriskovali kriminál hledáním reálného DP. Kdyby nebyla poptávka po komernčním reálném DP, tak pochybuju, že by to někdo točil a riskoval, kdyby z toho nic neměl. Takže by kriminálníci mohli přestat točit reálné DP s dětmi, protože o to by nikdo neměl zájem. Tím by (nové) reálné DP vymizelo, ne?

Nebo je moje úvaha chybná?
Dreamer píše: středa 25. 10. 2023, 10:31:01Kdo bude chtít, ten si to vygeneruje, bez ohledu na zákony.
Jasně. Ale pokud by generované DP bylo legální, tak by většina (nebo všichni) konzumentů preferovalo sledování generované DP, protože by nechtěli mít problémy se zákonem. A když by preferovali virtuální DP, tak by rapidně klesl zájem o reálné DP. Možná by někteří chtěli i tak reálné, ale většině by (předpokládám) stačilo generované. A protože by ten zájem o reálné DP klesl, buď by vzrostla cena na jednoho konzumenta, pak by zřejmě další chudší konzumenti přešli raději na legální generované DP zdarma, nebo by tvůrci reálného DP měli nižší zisky z reálného DP a pak je otázka, jestli by za tu malou částku tolik riskovali (jak jsem psal, měli by spojené nějaké náklady s tvorbou a distribucí toho materiálu).

Teď je nelegální reálné i generované DP, takže teoreticky je těm tvůrcům jedno, jak to DP vytvoří a konzumentům je jedno, jestli tam trpí dítě nebo je to jen virtuální dítě. Tresty hrozí stejné.

Tohle samozřejmě nemá nic společného se zneužíváním dětí - kdo bude chtít intimní styk s dítětem, ten ho provede tak jako tak, ať bude generované DP legální nebo ne.
Je mi krásně smutno. Tequila chutná nejlíp se solí. Při sprchování není vidět pláč. S plným srdcem lásky žiji prázdné dny.
Now I know that I am a dreamer, Believing in a world that isn't there
You are my little something, It's like you came from nothing, And now you're everything to me
Život nemá tlačítko Restart - promrhané roky nelze vrátit a prožít znovu
Stačí zavřít oči a všechno se stane. Stačí zavřít oči a ... všechno skončí
Uživatelský avatar
Jája
Na trestné lavici
Varování: 14
Bydliště: 🇨🇿kde nikdo nikde 🙊🙉🙈
Líbí se mi: Dívky a ženy
ve věku od: 10
ve věku do: 45
Výkřik do tmy: TO CO DNES ZANECHÁME V SRDCI DĚTÍ,ONY ZÍTRA VRÁTí CELÉMU SVĚTU...tak proto je musíme začít společně chránit ❤️🕊️🕊️🕊️🆘

„Lehčí je odpustit nepříteli než příteli"
Příspěvky: 296
Dal: 395 poděkování
Dostal: 219 poděkování

Re: Umělá inteligence je schopná generovat dětskou pornografii, komplikuje pátrání po reálných obětech (iROZHLAS)

Nový příspěvek od Jája »

DP je fuj mě by stačilo kdyby mi stát umožnil mít pár nahých fotek, žádná pornografie jen nahota kde se všichni smějí a nikomu není ublíženo nebo AI
Toto by mohli legálně dávat všem před státem registrovaných pedofilů kdo se snaží se svou sexuální orientaci nějak léčit nebo jak to nazvat. S pozdravem Jája 💖💖🕊️🍀
Uživatelský avatar
MR_Xguard
Čestný člen skupiny ČEPEK
Líbí se mi: Dívky
ve věku od: 3
ve věku do: 8
Příspěvky: 1025
Dal: 123 poděkování
Dostal: 323 poděkování

Re: Umělá inteligence je schopná generovat dětskou pornografii, komplikuje pátrání po reálných obětech (iROZHLAS)

Nový příspěvek od MR_Xguard »

Jája píše: středa 25. 10. 2023, 13:18:25 DP je fuj mě by stačilo kdyby mi stát umožnil mít pár nahých fotek, žádná pornografie jen nahota kde se všichni smějí a nikomu není ublíženo nebo AI
Toto by mohli legálně dávat všem před státem registrovaných pedofilů kdo se snaží se svou sexuální orientaci nějak léčit nebo jak to nazvat. S pozdravem Jája 💖💖🕊️🍀
Nahota ale není trestná. Za tu není možné odsoudit. Ani na to není zákon. Nahota a pornografie není to samé. A co se týče kreslené či jiné fantastické dětské pornografie, tak při její tvorbě taky nikomu nebylo ublíženo.
Uživatelský avatar
Cykle02
Mediální analytik
Líbí se mi: Chlapci i dívky
ve věku od: 2
ve věku do: 12
Výkřik do tmy: Nevěřím těm co nevěří na Ježíška.
Příspěvky: 6278
Dal: 364 poděkování
Dostal: 2646 poděkování

Re: Umělá inteligence je schopná generovat dětskou pornografii, komplikuje pátrání po reálných obětech (iROZHLAS)

Nový příspěvek od Cykle02 »


Nadace Internet Watch Foundation zjistila, že 3 000 snímků zneužívání vytvořených umělou inteligencí porušuje britské zákony

Nejhorší noční můry" o snímcích sexuálního zneužívání dětí vytvořených umělou inteligencí se stávají skutečností a hrozí, že zahltí internet, varovala organizace pro sledování bezpečnosti.

Nadace Internet Watch Foundation (IWF) uvedla, že našla téměř 3 000 snímků zneužívání vytvořených umělou inteligencí, které porušují britské zákony.Organizace se sídlem ve Spojeném království uvedla, že existující snímky skutečných obětí sexuálního zneužívání jsou zabudovávány do modelů umělé inteligence, které pak vytvářejí jejich nová vyobrazení.

Dodala, že tato technologie se používá také k vytváření snímků celebrit, které byly "omlazeny" a poté zobrazeny jako děti ve scénářích sexuálního zneužívání. Mezi další příklady materiálů sexuálního zneužívání dětí (CSAM) patřilo použití nástrojů umělé inteligence k "obnažování" obrázků oblečených dětí nalezených na internetu.

IWF v létě varovala, že se začínají objevovat důkazy o zneužívání vytvořeném umělou inteligencí, ale uvedla, že její poslední zpráva ukázala zrychlení používání této technologie. Susie Hargreavesová, výkonná ředitelka IWF, uvedla, že "nejhorší noční můry hlídacího psa se staly skutečností".

"Začátkem tohoto roku jsme varovali, že snímky pořízené umělou inteligencí by se brzy mohly stát nerozeznatelnými od skutečných snímků dětí, které trpí sexuálním zneužíváním, a že bychom mohli začít pozorovat, jak se tyto snímky šíří v mnohem větším množství. Nyní jsme tento bod překročili," řekla.

Zdroj v angličtině ZDE
"Děsivé je, že jsme svědky toho, jak zločinci záměrně trénují svou umělou inteligenci na snímcích skutečných obětí, které již byly zneužity. Děti, které byly v minulosti znásilněny, jsou nyní začleňovány do nových scénářů, protože je někdo někde chce vidět."

IWF uvedla, že se setkala také s důkazy o prodeji snímků vytvořených umělou inteligencí na internetu.

Její nejnovější zjištění vycházela z měsíc trvajícího vyšetřování fóra o zneužívání dětí na dark webu, což je část internetu, která je přístupná pouze pomocí specializovaného prohlížeče.

Na fóru bylo prozkoumáno 11 108 obrázků, z nichž 2 978 porušovalo britské zákony tím, že zobrazovalo sexuální zneužívání dětí.

CSAM generovaná umělou inteligencí je v Británii nezákonná podle zákona o ochraně dětí z roku 1978, který kriminalizuje pořizování, šíření a držení "nemravné fotografie nebo pseudofotografie" dítěte. IWF uvedla, že naprostá většina nalezeného nezákonného materiálu porušuje zákon o ochraně dětí, přičemž více než pětina těchto snímků je klasifikována jako kategorie A, tedy nejzávažnější druh obsahu, který může zobrazovat znásilnění a sexuální mučení.

Britská vláda uvedla, že na CSAM generované umělou inteligencí se bude vztahovat návrh zákona o bezpečnosti online, který má v nejbližší době vstoupit v platnost, a že společnosti provozující sociální média budou povinny zabránit tomu, aby se objevovaly na jejich platformách.
...a o jakých tématech se po dnešním Googlení začne na ČEPEKu mluvit?
Uživatelský avatar
Dreamer
Člen skupiny ČEPEK
Bydliště: Všude možně
Líbí se mi: Dívky
ve věku od: 2
ve věku do: 10
Výkřik do tmy: Nemiluju holčičky, protože jsem pedofil. Jsem pedofil, protože miluju holčičky.
Příspěvky: 1363
Dal: 1600 poděkování
Dostal: 817 poděkování

Re: Umělá inteligence je schopná generovat dětskou pornografii, komplikuje pátrání po reálných obětech (iROZHLAS)

Nový příspěvek od Dreamer »

Jasně podivíne, myslíš to dobře, a já bych legalizaci virtuální DP zcela určitě taky prosazoval. Jen si nemyslím, že by to mělo významný dopad na produkci té skutečné. Určitě ne do doby, dokud to bude snadno rozeznatelné. Jakmile to bude k nerozeznání, tak možná… Kdo ví, jak velké procento lidí touží vidět skutečné dítě v té situaci, a kolika by stačila dobře zpracovaná fikce… neumím to odhadnout.

Nicméně je to jedno, neumím si představit, že by něco takového kdekoliv prošlo, když zakazují i povídky a kresby. Každopádně myslím, že trestat něco, co neubližuje, je prostě velmi špatně z principu.

U toho posledního článku je velmi vtipné, jak se IWF odkopává. Místo aby byli rádi, že roste podíl DP, které nezobrazuje skutečné sexuální akty, tak se pohoršují. Zřejmě jim opravdu o děti nikdy nešlo. Jen o morálku a prachy, asi.
Uživatelský avatar
Cykle02
Mediální analytik
Líbí se mi: Chlapci i dívky
ve věku od: 2
ve věku do: 12
Výkřik do tmy: Nevěřím těm co nevěří na Ježíška.
Příspěvky: 6278
Dal: 364 poděkování
Dostal: 2646 poděkování

Re: Umělá inteligence je schopná generovat dětskou pornografii, komplikuje pátrání po reálných obětech (iROZHLAS)

Nový příspěvek od Cykle02 »


Všechny dostaly zprávu, že po internetu koluje jejich nahá fotografie, ani jedna z nich ji však nevyfotila. Server iROZHLAS.cz přináší výpovědi tří mladých žen, jejichž fotky byly zneužity k výrobě pornografického obsahu za použití umělé inteligence. K produkci tzv. „deepfakes“ pachatelé využívají i nezletilé dívky. „Současná právní úprava v Česku rozhodně neposkytuje rychlé a efektivní řešení situace,“ upozorňuje právnička Veronika Barešová.

„Pamatuji si to živě. Hrála jsem večer hru, když mi přišla od neznámého profilu zpráva o tom, že po internetu koluje moje nahá fotografie,“ popisuje dvaadvacetiletá Simona (redakce její identitu zná, ale respektuje její přání zůstat v anonymitě).

„Vybavuji si, jak jsem četla tu notifikaci a úplně mě polilo horko a panika, co, kde, a jaká fotka se kam mohla dostat, protože jsem nikomu nic neposílala,“ vzpomíná.

Napadlo ji, že by mohlo jít o mstu (tzv. revenge porn) z strany bývalého přítele, se kterým měla špatné zkušenosti. Nakonec ale tuto možnost vyloučila. Šlo totiž o fotku, kterou nikdy vědomě nepořídila. Někdo totiž z její oblečené fotografie vytvořil tzv. „deepfake“, falešnou nahou fotografii vygenerovanou umělou inteligencí.

„Chtěla jsem to nechat smazat, ale nemohla jsem s tím nic dělat. Ten večer jsem nemohla usnout,“ popisuje Simona. Její falešná nahá fotografie se šířila primárně skrz sociální síť telegram. „Zkoušela jsem to dohledat, ale bohužel jsem zjistila, že jde o skupinu, do které je třeba pozvánka.“

Obtížné stíhání

Podobnou zkušenost jako Simona má i jednadvacetiletá influencerka Sophie Šarláková. Právě ta svůj zážitek před týdnem veřejně sdílela na X (dříve twitteru) a upozornila tak na problém, který nekonsenzuální deepfake nahé fotografie pro mladé dívky představují.

„Přišla mi žádost o zprávu na instagram od chlapce, který mi nejdřív napsal ‚máš malé kozy‘ a později vyhrožoval vytvořením nahých fotek pomocí umělé inteligence, to jsem však ignorovala. Když mi ale začaly chodit zprávy, že na telegramu je vygenerovaná moje nahá fotka a lidé mi to začali posílat, začala jsem být znepokojená,“ popisuje Sophie pro iROZHLAS.cz.

„Byl to šok, nečekala jsem, že to vážně udělá. Naštěstí ta moje fotka není úplně uvěřitelná, ale myslela jsem na spoustu holek, kterým to může vážně ublížit,“ upozorňuje.

Obrátila se na policii, která případ vyhodnotila jako přestupek. „Stíhání pachatelů je s ohledem na specifika kybernetického prostoru často obtížné a zdlouhavé, a to zejména s poukázáním na bezhraniční povahu internetu a anonymitu, kterou nabízí,“ vysvětluje právnička Veronika Barešová, která nedávno vystoupila na téma genderově podmíněného násilí v kyberprostoru na konferenci mladých právních vědců COFOLA.

Barešová v těchto případech doporučuje shromažďovat důkazy, jako například snímky obrazovky, a následně provést kroky ke stažení závadného obsahu s konkrétní platformou.

‚Bylo mi čtrnáct‘

Influencerka Šarláková má na Instagramu a X (dříve twitteru) v součtu přes 140 tisíc sledujících. Nahé fotografie vytvořené za použití umělé inteligence však v současnosti ohrožují i dívky, které nejsou veřejně aktivní, což dokazuje zkušenost dnes dvaadvacetileté Kláry (i její pravou identitu redakce zná, ale na její přání nezveřejňuje).

„Před nějakou dobou mi na instagram začaly chodit otravné zprávy, že někdo dal mou nahou fotku na telegram,“ uvádí. Fotografii však tentokrát doprovodily i její osobní údaje, včetně odkazu na její instagramový účet.

„Spousta mužů mě následně začala žádat o sledování a nějaké nejspíš falešné profily holek mi poslaly přímo tu fotku. Z toho jsem zjistila, že jde o fotografii, kterou jsem zveřejnila, když mi bylo čtrnáct,“ popisuje.

„Cítila jsem hlavně naštvání, že to někdo dělá. Napadlo mě, že by se to mohlo někdy objevit třeba u pohovoru,“ vysvětluje s obavou, že by fotografii, ačkoliv není skutečná, mohl někdo zneužít. „Naštěstí mi tam není vidět do obličeje, takže to není tak hrozné,“ dodává však. Případ potom raději „hodila za hlavu“, protože nevěděla, jestli by vůbec bylo možné situaci nějak řešit.

„V takovém případě je situace jiná,“ poukazuje právnička Barešová. „Pokud se jedná o osobu mladší 18 let, lze takové jednání kvalifikovat jako trestný čin výroby a jiného nakládání s dětskou pornografií dle paragrafu 192 trestního zákoníku.“

„V případě dětských obětí je trestná jak výroba, tak i přechovávání, nabídnutí nebo učinění takového materiálu veřejně přístupným,“ vysvětluje. Na druhou stranu Barešová dodává, že u dospělých obětí samotné vytvoření pornografického deepfake snímku trestné většinou nebude.

Zájem o deepfakes roste

„Falešné nahé fotky má dnes na internetu už i kdejaká obyčejná slečna. Většina z nich o tom navíc ani neví, přitom jejich fotky mohou kolovat po skupinách už nějakou dobu,“ tvrdí čtyřiadvacetiletá Zuzana. Pod přezdívkou Zuki se sama aktivně pohybuje v erotickém průmyslu, své explicitní fotografie vědomě sdílí předplatitelům na platformě OnlyFans. Díky tomu má prý tak vhled do skupiny lidí, kteří falešné nahé fotky vytvářejí.

Dříve podle ní šlo o problém, který se týkal primárně celebrit a influencerek. „Lidé je chtěli vidět nahé, přišlo jim to sexy,“ popisuje.

„Takové fotky se vytvářejí už nějakou dobu, alespoň dva až tři roky. Teď se ale rozšířily,“ upozorňuje Zuki, která tvrdí, že nejčastěji se jedná o uzavřené komunity na platformách telegram a reddit.

To potvrzují například i data o trendech ve vyhledávání výrazů, jako je „deepfake“ či „deepfake porn“. Podle údajů společnosti Google se zájem od roku 2020 více než zdvojnásobil.

V září pak Španělskem otřásl případ skupiny chlapců, kteří na internetu šířili deepfake fotografie více než dvaceti nezletilých dívek mezi jedenácti a sedmnácti lety z okolí města Almendralejo.

Podle letošního průzkumu zveřejněného magazínem Wired se pornografický obsah vytvořený za použití umělé inteligence vymyká kontrole. Jen v roce 2023 ho zřejmě bude vyprodukováno víc, než ve všech předchozích letech dohromady.

Roste také počet nástrojů, které deepfake pornografii vytvářejí. Ať už jde o aplikace na výměnu obličeje ve videích, nebo nástroje, které „svléknou“ oblečenou ženu na fotografii a vytvoří tak falešnou nahou fotku – Wired predikuje, že pomocí těchto systémů vznikají miliony falešných fotografií. A ve velké míře bez souhlasu vyobrazené osoby.

Role Istanbulské úmluvy

Oběti deepfake fotografií, které někdo vytvořil bez jejich vědomí, však v současném českém právním systému stojí v obtížné pozici. Vzhledem k tomu, že jde stále o poměrně nový fenomén, státní orgány často neví, jak k nim přistupovat – a legislativa je výslovně nijak neřeší.

 „Většina odborníků se shoduje na tom, že šíření zmanipulovaného materiálu je možné kvalifikovat jako trestný čin poškození cizích práv,“ míní právnička Barešová. „Ten je často splněn samotnou podstatou deepfake, která spočívá v tom, že se tvůrce snažil vyvolat dojem, že jde o skutečný materiál.“

„V úvahu také připadá trestný čin pomluvy, případně je možné využít i civilní žaloby. Současná právní úprava ale rozhodně neposkytuje rychlé a efektivní řešení situace,“ potvrzuje.

Situaci by podle Barešové mohla významně pomoct vyřešit ratifikace Istanbulské úmluvy. „Přestože samotný text kybernetické násilí explicitně neobsahuje, první obecné doporučení expertní skupiny pro potírání násilí vůči ženám a domácího násilí obsahuje výklad Istanbulské úmluvy pro užití v online sféře,“ uvádí. Podle tohoto doporučení by se nemělo rozlišovat mezi „offline“ a online násilím.

Čeští zákonodárci se však zatím k Istanbulské úmluvě staví rezervovaně. Letos v létě ji senátní výbory označily za „nadbytečný ideologický dokument“, finální stanovisko by měla horní komora zaujmout zřejmě do konce roku.

„V legislativním procesu je také aktuálně návrh směrnice Evropského parlamentu, který obsahuje mimo jiné i požadavek kriminalizace závažných forem kybernetického násilí,“ doplňuje Barešová. Jeden z bodů této směrnice konkrétně reaguje na manipulování s videem a fotografií bez souhlasu vyobrazené osoby.

Řada států přitom již reagovala na nebezpečí, které falešné nahé fotografie a nekonsenzuální deepfake pornografie přestavují. Svou legislativu upravily země jako Belgie, Irsko nebo Španělsko. V Anglii a Walesu dokonce vznikly nové trestné činy, které postihují deepfake a další formy kybernetického násilí, jako třeba revenge porn.

Experti se také shodují, že kybernetické násilí, včetně šíření falešných nahých fotografií, může mít výrazné dopady na duševní zdraví obětí. Přestože fotografie není skutečná, nedobrovolná sexualizace, která ji provází, vyvolává následné pocity studu i zneužití.
...a o jakých tématech se po dnešním Googlení začne na ČEPEKu mluvit?
Uživatelský avatar
Cykle02
Mediální analytik
Líbí se mi: Chlapci i dívky
ve věku od: 2
ve věku do: 12
Výkřik do tmy: Nevěřím těm co nevěří na Ježíška.
Příspěvky: 6278
Dal: 364 poděkování
Dostal: 2646 poděkování

Re: Umělá inteligence je schopná generovat dětskou pornografii, komplikuje pátrání po reálných obětech (iROZHLAS)

Nový příspěvek od Cykle02 »


Není tomu tak dávno, co umělá inteligence stěží napočítala do desíti. Dnes zvládne vytvořit realisticky vypadající obrázky, naprogramovat software, nebo dokonce řídit roboty. Spolu s tím ale vyvstává otázka, jestli nejsou na místě větší regulace AI, aby se lidem úplně nevymkla z rukou.

Firmy investují velké peníze do nových modelů AI, bohužel už tolik ne do prostředků, kterými půjde zamezit jejich negativnímu vlivu na společnost. V poslední době se na internetu například objevují fotografie lidí, které vypadají realisticky, ale jsou vytvořeny umělou inteligencí. Dost často se jedná i o škodlivý obsah, jako je například dětská pornografie.

Dokument skupiny vědců a výzkumníků vyzývá politiky k tomu, aby začali vývoj systému přísněji regulovat. Jedním ze skupiny je například i britsko-kanadský psycholog a počítačový vědec Geoffrey Hinton, jeden z otců neuronových sítí, na kterých dnešní AI systémy běží.

Signatáři navrhují, aby třetina investovaných peněz do vývoje umělé inteligence byla přesměrována do tvorby pojistek, které zajistí etické a bezpečné využívání umělé inteligence.

Do vývojových center by podle nich měli mít přístup i nezávislí odborníci, kteří by dohlíželi na bezpečnost AI systémů. V neposlední řadě mají mít firmy povinnost vzít na sebe škody vzniklé jejich umělou inteligencí.

Právní vakuum

„Naděje na úspěch je velice malá, protože apely tohoto typu obvykle začnou fungovat až ve chvíli, kdy dojde k nějakému průšvihu,“ komentuje výzvu vědců Petr Koubský z Deníku N.

V Evropě už ale existuje snaha o regulaci AI nástrojů. Projednává se například nařízení, které má stanovit, kdo má odpovědnost za provoz systémů a za způsobené škody. Diskutuje se i o tom, k jakým účelům by měla být AI využívána. Snahy o regulaci tedy můžeme, minimálně v Evropské unii, zaznamenat.

Zakázat výzkum čehokoliv není podle Petra Koubského možné. Regulovat se mají především už hotové technologie přicházející na trh.

„Systémy AI v tuhle chvíli existují do značné míry v právním vakuu, a to se musí něčím naplnit. Musí tu být nějaká pravidla toho, jak s nimi zacházet, jaká je zodpovědnost za vzniklé škody a co všechno by se nemělo pomocí AI dělat,“ dodává Petr Koubský.

Více o regulacích umělé inteligence si můžete poslechnout v pátečním pořadu Online plus. Zároveň i o kulatých narozeninách jednoho textového editoru, velké americké žalobě na firmu meta nebo o dětské pornografii vytvářené s pomocí AI. Pořadem provází David Slížek.
...a o jakých tématech se po dnešním Googlení začne na ČEPEKu mluvit?
Uživatelský avatar
Bouře
Globální moderátorka
Bydliště: Internet
Líbí se mi: Muži
ve věku od: 18
ve věku do: 40
Kontakt: [email protected]
Výkřik do tmy: Anti-contact MAP ally
Příspěvky: 1069
Dal: 1178 poděkování
Dostal: 1301 poděkování

Re: Umělá inteligence je schopná generovat dětskou pornografii, komplikuje pátrání po reálných obětech (iROZHLAS)

Nový příspěvek od Bouře »

podivin píše: středa 25. 10. 2023, 11:33:19
Off topic, ale nedalo mi to. *off_topic*

Ano, legalizace drog by pravděpodobně snížila mnoho negativních jevů. Je to nějaká doba, co jsem o tomto vedla debatu s někým, kdo drogám rozumí. Teoreticky - kdyby se některé drogy prodávaly ve specializovaných "lékárnách", kde by daný lékárník byl přímo specializovaný na drogy, mohl by zákazníkům poradit, s čím není dobré danou drogu kombinovat, její účinky, ale hlavně by zákazníkovi neprodal větší množství, než které by mu mohlo vážně ublížit a zboží by bylo "čisté", tedy bez různých příměsí, které se do drog často dávají, a které právě často způsobují mnoho potíží.

Ono se to může zdát šílené, a mě se to taky zdálo šílené, když mi to dotyčný vysvětloval, ale dává to smysl. Kromě toho, že by to mohl stát zdanit a přineslo by to nejspíše nemalé peníze do státní kasy by to taky byla obrovská rána pro černý trh, který by to pravděpodobně výrazně omezilo ne-li dokonce zlikvidovalo. Možná by i díky tomu opadl pocit "zakázaného ovoce". To že se totiž něco zakáže neznamená, že to neexistuje, a ten kdo si bude chtít sehnat nějaké drogy, tomu stačí chvíli hledat a má je. Já vůbec škodlivost drog (i když to je široký pojem, že?) nijak nebagatelizuji a naopak jsem velký odpůrce jakýchkoliv drog, když dokonce ani kafe nepiji.

Teď nevím, jestli v Kanadě nebo ve Švýcarsku, ale dlouholetým uživatelům heroinu dokonce stát posílá ten heroin sám. Ti lidi totiž pak nekradou a nedělají jinou trestnou činnost, aby se dostali k penězům na heroin a stát i okolí to vyjde levněji. Já sama si nejsem jistá, jak by tohle fungovalo v praxi, přeci jen věci fungují jinak na papíře a ve skutečnosti, ale je minimálně zajímavé o tom přemýšlet.

V minulém století v USA se dokonce nějaký stát snažil zakázat alkohol. Paradoxně se v té době pilo úplně nejvíce (nebo minimálně více než běžně) a přibylo i negativních následků. Pokud by tě to zajímalo více, můžeš kouknout na debatu s Debatním deníkem. Vyšlo to nedávno. :)

Skálu pěstí nerozbiješ, ale i ten nejtvrdší kámen proroste květina. Jen to chce čas.
Nechceš-li být odsuzován za svou odlišnost, nesuď za odlišnost jiné a neubližuj zranitelným.
Who wants peace shall prepare for war
Uživatelský avatar
Cykle02
Mediální analytik
Líbí se mi: Chlapci i dívky
ve věku od: 2
ve věku do: 12
Výkřik do tmy: Nevěřím těm co nevěří na Ježíška.
Příspěvky: 6278
Dal: 364 poděkování
Dostal: 2646 poděkování

Re: Umělá inteligence je schopná generovat dětskou pornografii, komplikuje pátrání po reálných obětech (iROZHLAS)

Nový příspěvek od Cykle02 »


Perp řekl, že tajně zaznamenával pacienty – a digitálně je svlékal pomocí webových neuronových sítí

Dětský psychiatr byl ve středu uvězněn za výrobu, držení a přepravu materiálů pro sexuální zneužívání dětí (CSAM), včetně používání webového softwaru umělé inteligence k vytváření pornografických snímků nezletilých.

Prokurátoři v Severní Karolíně uvedli, že David Tatum (41), kterého porota v květnu shledala vinným, byl odsouzen ke 40 letům vězení a 30 letům řízeného propuštění a nařízeno zaplatit 99 000 dolarů jako restituce.

"Jako dětský psychiatr Tatum věděl, jaký škodlivý a dlouhodobý dopad má sexuální vykořisťování na blaho dětí pronásledovaných," řekla americká zástupkyně Dena J. Kingová v prohlášení. "Bez ohledu na to se zapojil do zkažené praxe používání tajných nahrávek svých obětí k vytváření jejich nezákonných obrázků a videí."


Zabýval se zkaženou praxí používání tajných nahrávek svých obětí k vytváření jejich nezákonných obrázků a videí

"Tatum také zneužila umělou inteligenci tím nejhorším možným způsobem: k viktimizaci dětí," řekla Kingová a dodala, že její úřad je odhodlán stíhat ty, kteří zneužívají technologie k poškození dětí.

Jeho obžaloba [PDF] neposkytuje žádné podrobnosti o AI použitý software; jiný soud dokument [PDF] uvádí, že Tatum v Kromě držení, výroby a přepravy sexuálně explicitního materiálu nezletilých si prohlíželi generované obrázky dětí na falešných webových stránkách AI.

Důkazy ze soudního řízení citované vládou zahrnují tajně pořízený záznam nezletilého (bratranec) svlékání a sprchování a další videa dětí účastnících se sexuálních aktů.

"Navíc důkazy ze soudního řízení také prokázaly, že Tatum používal AI k digitální úpravě oblečených obrázků nezletilých, aby byly sexuálně explicitní," uvedli žalobci. "Konkrétně zkušební důkazy ukázaly, že Tatum použil webovou aplikaci umělé inteligence ke změně obrázků oblečených nezletilých na dětskou pornografii."

Před dvěma měsíci, podle CNN, byl Jihokorejec odsouzen na dva a půl roku vězení za vytváření sexuálních obrázků dětí.

Používání modelů umělé inteligence ke generování sexuálního zneužívání dětí se mimo jiné stalo předmětem vážného znepokojení mezi zákonodárci, skupinami občanské společnosti a společnostmi prodávajícími služby umělé inteligence.

V připravených poznámkách [PDF] přednesené na slyšení podvýboru amerického Senátu na začátku tohoto roku, generální ředitel OpenAI Sam Altman řekl: „GPT-4 má o 82 procent nižší pravděpodobnost, že bude reagovat na žádosti o nepovolený obsah ve srovnání s GPT-3.5, a my používáme robustní kombinaci lidské a automatizované kontrolní procesy ke sledování zneužití. Přestože tyto systémy nejsou dokonalé, dosáhli jsme významného pokroku a pravidelně zkoumáme nové způsoby, jak učinit naše systémy bezpečnějšími a spolehlivějšími.“

Altman řekl, že OpenAI také spoléhá na službu Safer společnosti Thorn, aby zjistila, zablokovala a nahlásila CSAM.

Snaha odhalit CSAM po jeho vytvoření by však mohla vést k snížení zabezpečení online prostřednictvím požadavků na dohled nad sítí. Nedávná zpráva z Investigativní organizace Balkan Insight říká, že skupiny jako Thorn podporovaly legislativu na odhalování CSAM, aby bylo skenování online obsahu zčásti povinné, protože tuto službu poskytují. ®
...a o jakých tématech se po dnešním Googlení začne na ČEPEKu mluvit?
Uživatelský avatar
Cykle02
Mediální analytik
Líbí se mi: Chlapci i dívky
ve věku od: 2
ve věku do: 12
Výkřik do tmy: Nevěřím těm co nevěří na Ježíška.
Příspěvky: 6278
Dal: 364 poděkování
Dostal: 2646 poděkování

Re: Umělá inteligence je schopná generovat dětskou pornografii, komplikuje pátrání po reálných obětech (iROZHLAS)

Nový příspěvek od Cykle02 »


Organizace na ochranu dětí vyzývají k naléhavým opatřením, která by žákům pomohla pochopit rizika vytváření snímků, které z právního hlediska představují sexuální zneužívání dětí
 
Skupina odborníků na zneužívání dětí a technologie varovala, že děti v britských školách používají umělou inteligenci (AI) k vytváření nemravných snímků jiných dětí.

Uvedli, že řada škol poprvé hlásí, že žáci používají technologii generující umělou inteligenci k vytváření snímků dětí, které z právního hlediska představují materiál sexuálního zneužívání dětí.

Emma Hardyová, ředitelka Britského centra pro bezpečnější internet (UKSIC), uvedla, že tyto obrázky jsou "děsivě" realistické.

"Kvalita snímků, které vidíme, je srovnatelná s profesionálními fotografiemi dětí, které se každoročně pořizují ve školách po celé zemi," uvedla Hardyová, která je zároveň ředitelkou komunikace nadace Internet Watch Foundation.

"Fotorealistická povaha snímků dětí generovaných umělou inteligencí znamená, že někdy jsou děti, které vidíme, rozpoznatelné jako oběti předchozího sexuálního zneužívání.

"Děti je třeba varovat, že se tyto snímky mohou šířit po internetu a skončit tak, že je uvidí cizí lidé a sexuální predátoři. Potenciál zneužití této technologie je děsivý," řekla.

Organizace na ochranu dětí UKSIC tvrdí, že školy musí urychleně jednat a zavést lepší systémy pro blokování materiálů, které zneužívají děti.

"Zprávy, které zaznamenáváme, o tom, že děti pořizují tyto snímky, by nás neměly překvapovat. Tyto typy škodlivého chování bychom měli předvídat, když se nové technologie, jako jsou generátory umělé inteligence, stanou přístupnější veřejnosti," uvedl ředitel UKSIC David Wright.

"Děti možná zkoumají možnosti generátorů obrázků umělou inteligencí, aniž by si plně uvědomovaly, jakou škodu mohou způsobit. Ačkoli jsou počty případů malé, jsme na začátku a je třeba, aby se kroky podnikaly hned - dříve, než budou školy zahlceny a problém se rozroste," dodal.

Zobrazování sexuálního zneužívání dětí je ve Spojeném království nezákonné - ať už jde o zobrazení generované umělou inteligencí, nebo o fotografie - přičemž i kreslené nebo jiné méně realistické zobrazení je stále nezákonné vytvářet, vlastnit a šířit.

Nadace Internet Watch Foundation minulý měsíc varovala, že obrázky sexuálního zneužívání dětí generované umělou inteligencí "hrozí zahltit internet", přičemž mnohé z nich jsou nyní tak realistické, že jsou nerozeznatelné od skutečných zobrazení - dokonce i pro vyškolené analytiky.
Podrobnosti v angličtině ZDE



"používají technologii generující umělou inteligenci" generativní umělou inteligenci *lol*
...a o jakých tématech se po dnešním Googlení začne na ČEPEKu mluvit?