Apple představí systém, který bude ve Fotkách detekovat zneužívání dětí (Jablíčkář.cz)

Reakce na články z médií (tisk, rozhlas, televize, internet, ...) a diskuze o nich.
Uživatelský avatar
Dreamer
Člen skupiny ČEPEK
Bydliště: Všude možně
Líbí se mi: Dívky
ve věku od: 4
ve věku do: 10
Příspěvky: 1041
Dal: 1300 poděkování
Dostal: 548 poděkování

Re: Apple představí systém, který bude ve Fotkách detekovat zneužívání dětí (Jablíčkář.cz)

Nový příspěvek od Dreamer »

pbd píše: čtvrtek 9. 9. 2021, 9:00:36 Vláda Spojeného království Velké Británie a Severního Irska to ale nebude.
Mě tyhle aktivity připadají fakt smutný. Tolik úsilí a peněz, co teče do projektů předem odsouzených k neúspěchu, když by se daly použít na prevenci, která by dětem mohla skutečně pomoct. Odborníci přeci musí vědět, že DP se šíří hlavně přes tor, kterého se tyhle snahy vůbec nedotknou. Také musí vědět, že nemohou zavřít všechny, co to vyhledávají, protože těch lidí je prostě moc. A rozhodně si musí uvědomovat, že persekucí těch nešťastníků, ke kterým se něco takového příležitostně dostane na špatně zabezpečený telefon, problém sexuálního zneužívání rozhodně nevyřeší.

Což ale znamená, že buď ty vlády zcela záměrně uvádějí veřejnost v omyl, aby jim prodaly falešný pocit bezpečí a/nebo nad ní získaly větší kontrolu, nebo jsou zcela nekompetentní a ten problém vůbec neumí nebo nechtějí vidět a uchopit v celé jeho komplexnosti. Obojí je špatně.

Firmy jako Apple naprosto chápu, že do detekce a potírání CSAM investují. Musí. Nikdo to nechce mít na svých serverech, a následně být obviňován z toho, že proti šíření na své platformě nic nedělal. Ale tyhle technologie chrání hlavně ty firmy a jejich investory, ne děti, tedy kromě nepatrného omezení reviktimizace.

Sexuální výchova dětí od útlého věku, samozřejmě přiměřená věku, tak aby děti zneužívání poznaly, dokázaly říct “ne” a nestyděly se svěřit. Destigmatizace pedofilie, aby se lidé se zvýšeným rizikem zneužití dítěte měli kam obrátit pro pomoc se zvládáním svých pocitů. Práce se sociálně slabšími rodinami… Tam by se mělo investovat.

pbd píše: čtvrtek 9. 9. 2021, 9:00:36 Naopak se chystají částkou asi 12 milionů Kč podpořit pět projektů s cílem vytvořit způsob, jak detekovat materiál zobrazující sexuální zneužívání dětí v end-to-end (E2E) šifrované komunikaci.
2.4 milóny Kč pro každého z pěti soutěžících je úplně směšná částka. Za tu si někdo leda tak otevře dokumentaci k PhotoDNA od Microsoftu a krátce popíše to řešení, co vymyslel (a rozhodl se nenasadit) Apple. O moc lépe to totiž dělat nejde. Kdyby ty peníze dali nějaké univerzitě, aby zmapovala problém CSA a šíření CSAM a navrhla nějaká systémová řešení, udělali by lépe. Tohle jen ukazuje, že na ministerstvu vůbec netuší, co vlastně řeší.
Uživatelský avatar
Rudy
Registrovaný uživatel
Varování: 3
Líbí se mi: Dívky
ve věku od: 9
ve věku do: 25
Příspěvky: 191
Dal: 177 poděkování
Dostal: 84 poděkování

Re: Apple představí systém, který bude ve Fotkách detekovat zneužívání dětí (Jablíčkář.cz)

Nový příspěvek od Rudy »

@dreamer
Krásně si to napsal a souhlasím v plné míře *good*
Uživatelský avatar
Cykle02
Mediální analytik
Líbí se mi: Chlapci i dívky
ve věku od: 2
ve věku do: 12
Výkřik do tmy: Nevěřím těm co nevěří na Ježíška.
Příspěvky: 3352
Dal: 383 poděkování
Dostal: 1431 poděkování

Re: Apple představí systém, který bude ve Fotkách detekovat zneužívání dětí (Jablíčkář.cz)

Nový příspěvek od Cykle02 »


Apple se chystá představit aktualizaci svého mobilního operačního systému, s níž má přijít i zásadní novinka. Firma představí dlouho očekávaný systém detekce nahých fotografií ve zprávách pro dětské uživatele nebo od nich. Další fanoušky vyhlížené novinky jako například digitální otisk identifikačních průkazů ale v rámci aktualizace iOS 15.2 nedorazí, píše agentura Bloomberg.

Vedle detekce nahoty ve zprávách na zařízeních užívaných dětmi se uživatelé dočkají nové funkce na převod dat z telefonu v případě, že jeho držitel zemře, a další nástroje na kontrolu soukromí.

Apple slibuje uvedení nové ochrany dětí v aplikaci Zprávy už několik měsíců. Původně mělo jít o trojici funkcí – detekci nahoty v zprávách, rozšíření funkcí hlasové asistentky Siri, která se nově dovede naučit nahlásit zneužívání dítěte, a technologii, která má rozpoznávat snímky týkající se zneužívání dětí v úložišti iCloud. Záměr ale vyvolal odpor odborné veřejnosti kvůli obavám ze zachování soukromí uživatelů, a Apple představení novinek odložil.

V rámci aktualizace iOS 15.2 představí první dvě novinky. O tom, kdy dorazí rozpoznávání závadných fotografií v cloudu, ale firma mlčí.

Systém detekce nahoty bude fungovat na iPhonech, iPadech i počítačích Mac. Automaticky zanalyzuje všechny příchozí i odchozí snímky v aplikaci Zprávy, a pokud rozpozná fotku obsahující nahotu, zobrazí ji rozmazaně a varuje uživatele před nevhodným obsahem. Ten ale stále může varování ignorovat a zobrazit neupravený snímek. Pokud se dítě fotku s nahotou pokusí odeslat, zobrazí se mu též varování.

V obou případech se dítěti nabídne možnost kontaktovat své rodiče. Oproti původně představené verzi ale Apple odstranil funkci, která rodiče o události varovala automaticky. Funkce ovšem zůstane omezena jen na aplikaci Zprávy, do komunikačních aplikací třetích stran jako WhatsApp nebo Signal zasahovat nebude.

Další novinkou je možnost v zařízení nastavit, komu má přístroj odeslat v něm obsažená data v případě úmrtí uživatele. Zařízení také nově umí vytvářet reporty o soukromí. Ty zobrazí, které aplikace kdy získaly přístup k fotoaparátu, mikrofonu a údajích o poloze.

Nová verze operačního systému činí pokroky i v oblasti opravitelnosti zařízení, na kterou se Apple v poslední době zaměřuje. Nová funkce umí zobrazit, kdy byl iPhone v minulosti servisován, zda byly k opravě použity originální díly a jestli komponenty v telefonu už v minulosti neběžely v jiném zařízení. To má vedle budoucích oprav usnadnit i nákup zařízení z druhé ruky.
...a o jakých tématech se po dnešním Googlení začne na ČEPEKu mluvit?
Uživatelský avatar
Cykle02
Mediální analytik
Líbí se mi: Chlapci i dívky
ve věku od: 2
ve věku do: 12
Výkřik do tmy: Nevěřím těm co nevěří na Ježíška.
Příspěvky: 3352
Dal: 383 poděkování
Dostal: 1431 poděkování

Re: Apple představí systém, který bude ve Fotkách detekovat zneužívání dětí (Jablíčkář.cz)

Nový příspěvek od Cykle02 »


Apple v tichosti smazal všechny zmínky o CSAM na svých webových stránkách pro bezpečnost dětí, což naznačuje, že jeho kontroverzní plán na odhalování obrázků sexuálního zneužívání dětí na iPhonech a iPadech může zůstat nevyřízený po značné kritice jeho metod.

Společnost Apple v srpnu oznámila plánovanou sadu nových funkcí pro bezpečnost dětí, včetně skenování uživatelských knihoven fotografií na iCloudu pro zjištění materiálů o sexuálním zneužívání dětí (CSAM), zabezpečení komunikace, aby upozornila děti a jejich rodiče, když přijímají nebo přijímají sexuálně explicitní fotografie Odesílat, a rozšířené Průvodci CSAM v Siri a Vyhledávání.

Po svém oznámení byly funkce kritizovány širokou škálou jednotlivců a organizací, včetně bezpečnostních výzkumníků, informátorů o ochraně osobních údajů Edwarda Snowdena, nadace Electronic Frontier Foundation (EFF), bývalého šéfa bezpečnosti Facebooku, politiků, politických skupin, univerzitních výzkumníků a dokonce i někteří zaměstnanci společnosti Apple.

Většina kritiky se týkala plánované detekce CSAM společnosti Apple na zařízení, které bylo výzkumníky kritizováno za to, že se spoléhalo na nebezpečnou technologii hraničící s dohledem, a vysmívalo se jí za to, že její použití k identifikaci obrázků sexuálního zneužívání dětí je neúčinné.

Apple se nejprve pokusil vyjasnit některá nedorozumění a uklidnit uživatele zveřejněním podrobných informací, sdílením často kladených otázek, různých nových dokumentů, rozhovorů s vedením společnosti a dalšími, aby rozptýlil obavy.

I přes snahu Applu však kontroverze nezmizely. Apple nakonec pokračoval v zavádění zabezpečení komunikace zasílání zpráv, které bylo spuštěno začátkem tohoto týdne s vydáním iOS 15.2, ale Apple se rozhodl odložit zavedení CSAM kvůli záplavě kritiky, kterou zjevně neočekával.

Apple uvedl, že jeho rozhodnutí odložit bylo „založeno na zpětné vazbě od zákazníků, zúčastněných stran, výzkumníků a dalších…

Výše uvedené prohlášení bylo přidáno na stránku bezpečnosti dětí společnosti Apple, ale nyní je pryč spolu se všemi zmínkami o CSAM, což zvyšuje možnost, že jej Apple mohl zahodit a zcela opustil plán. Požádali jsme Apple o komentář a pokud něco uslyšíme, aktualizujeme tento článek.

Source link
...a o jakých tématech se po dnešním Googlení začne na ČEPEKu mluvit?
Uživatelský avatar
podivin
Správce poradny
Líbí se mi: Dívky a ženy
ve věku od: 2
ve věku do: 40
Výkřik do tmy: Srdce plné lásky přetéká v slzách očima *** Když někoho miluješ, znamená pro tebe víc než ty sám a chceš pro něj jen to nejlepší, ikdyby to tobě mělo působit bolest *** Ikdyž jsou to "jen" děti, mají mou úctu a chovám se k nim slušně *** Moc, peníze ani sex nemůžou nahradit dětskou radost, smích a lásku. *** Čiň, co chceš, pokud nikomu neškodíš *** Každý čin se ti třikrát vrátí
Příspěvky: 1115
Dal: 944 poděkování
Dostal: 515 poděkování

Re: Apple představí systém, který bude ve Fotkách detekovat zneužívání dětí (Jablíčkář.cz)

Nový příspěvek od podivin »

Cykle02 píše: čtvrtek 16. 12. 2021, 9:26:38Apple v tichosti smazal všechny zmínky o CSAM na svých webových stránkách pro bezpečnost dětí, což naznačuje, že jeho kontroverzní plán na odhalování obrázků sexuálního zneužívání dětí na iPhonech a iPadech může zůstat nevyřízený po značné kritice jeho metod.
A nebo na to nechce upozorňovat a zapne to naopak bez jakékoliv informace v tichosti.
Je mi krásně smutno. Tequila chutná nejlíp se solí. Při sprchování není vidět pláč. S plným srdcem lásky žiji prázdné dny.
Now I know that I am a dreamer, Believing in a world that isn't there
You are my little something, It's like you came from nothing, And now you're everything to me
Život nemá tlačítko Restart - promrhané roky nelze vrátit a prožít znovu