
Hogyan védhetjük meg gyermekünket az online veszélyektől?
A technológiai cégek számára új kihívások elé néznek, mivel a brit médiahatóság, az Ofcom közzétette a legújabb biztonsági intézkedéseit, amelyek célja a fiatalok védelme a káros tartalmaktól. Az Ofcom kutatása szerint a 13 és 17 év közötti fiatalok 59%-a számolt be arról, hogy az előző hónapban találkoztak „potenciálisan káros tartalommal” az interneten. A közeljövőben életbe lépő Online Safety Act keretében a hatóság véglegesítette a gyermekek biztonságára vonatkozó szabályokat, amelyek 2025. július 25-től lépnek életbe a közösségi média, keresőmotorok, valamint játékalkalmazások és weboldalak esetében.
A új intézkedések célja, hogy megakadályozzák a fiatalok találkozását a legkárosabb tartalmakkal, amelyek a öngyilkossággal, önsértéssel, étkezési rendellenességekkel és pornográfiával kapcsolatosak. Emellett a szabályozás védeni kívánja a gyermekeket a nőgyűlölő, erőszakos, gyűlöletkeltő, vagy bántalmazó anyagoktól, az online zaklatástól és a veszélyes kihívásoktól is. Azoknak a cégeknek, amelyek folytatni kívánják működésüket az Egyesült Királyságban, több mint 40 gyakorlati intézkedést kell bevezetniük. Ezek közé tartozik többek között az algoritmusok módosítása, amelyek meghatározzák, hogy mit látnak a gyerekek a hírfolyamaikban, a káros tartalmak kiszűrése érdekében, szigorúbb életkor-ellenőrzési módszerek bevezetése, a káros anyagok gyorsabb eltávolítása, valamint a gyerekek támogatása, akik már találkoztak ilyen tartalmakkal. Továbbá a cégeknek meg kell nevezniük egy felelős személyt, aki a gyermekek biztonságáért felelős, és évente felül kell vizsgálniuk, hogyan kezelik a gyermekek védelmét a platformjaikon.
A szabályok megszegése esetén a cégeket akár 18 millió font pénzbírsággal sújthatják, vagy a globális bevételeik 10%-át is meg kell fizetniük, sőt, a vezetőik börtönbüntetést is kaphatnak. Különösen súlyos esetekben az Ofcom bírósági végzést kérhet, hogy megakadályozza az adott weboldal vagy alkalmazás elérhetőségét az Egyesült Királyságban. Számos civil jogvédő csoport még szigorúbb szabályokat követel a technológiai cégek számára, és vannak, akik szeretnék, ha a 16 év alatti fiatalokat teljesen kitiltanák a közösségi médiából.
Ian Russell, a Molly Rose Alapítvány elnöke, aki lányának emlékére alapította a szervezetet, miután 14 évesen öngyilkosságot követett el, kifejezte csalódottságát a szabályozás ambíciójának hiánya miatt. Molly 2017-ben öngyilkosságot követett el, miután öngyilkossággal és önsértéssel kapcsolatos tartalmakkal találkozott az Instagramon és a Pinteresten. A Sussex-i herceg és hercegné is a közösségi média veszélyeivel kapcsolatos erősebb védelmet sürgetnek, kijelentve, hogy „nem tesznek eleget” a fiatalok védelméért. New Yorkban egy ideiglenes emlékművet is felállítottak a közösségi média miatt életüket vesztett gyermekek emlékére.
A NSPCC gyermekvédelmi jótékonysági szervezet szerint a törvény még mindig nem nyújt elegendő védelmet a privát üzenetküldő alkalmazások számára. Azt állítják, hogy az end-to-end titkosított szolgáltatások, amelyeket kínálnak, „elfogadhatatlan, jelentős kockázatot jelentenek a gyermekek számára”. Ezzel szemben a magánélet védelméért küzdő aktivisták azt mondják, hogy az új szabályok veszélyeztetik a felhasználók szabadságát, és egyesek úgy vélik, hogy az életkor-ellenőrzési módszerek invazívak, anélkül, hogy elég hatékonyak lennének. A digitális életkor-ellenőrzések „biztonsági résekhez, magánéleti behatoláshoz, hibákhoz, digitális kizáráshoz és cenzúrához vezethetnek” – mondta Silkie Carlo, a Big Brother Watch igazgatója.
A törvény emellett előírja, hogy a cégeknek be kell mutatniuk, hogy elkötelezettek az illegális tartalmak eltávolítása mellett, beleértve a gyermekek szexuális bántalmazását, az irányító vagy kényszerítő magatartást, az extrém szexuális erőszakot, az öngyilkosság vagy önsértés népszerűsítését, valamint illegális drogok vagy fegyverek értékesítését. Új bűncselekmények is létrejöttek, mint például a cyber-flashing, vagyis a nemkívánatos szexuális képek küldése online, illetve a „deepfake” pornográfia, ahol mesterséges intelligenciát használnak valakinek a hasonmását pornográf tartalomba illesztve.
Az Ofcom kutatása szerint a 8 és 17 év közötti gyermekek napi két és öt órát töltenek az interneten. A kutatás megállapította, hogy szinte minden 12 év feletti gyermek rendelkezik mobiltelefonnal, és szinte mindannyian videókat néznek olyan platformokon, mint a YouTube vagy a TikTok. A 12 év feletti gyermekek körülbelül fele véli úgy, hogy az online jelenlét jótékony hatással van a mentális egészségükre. Ugyanakkor a Gyermekjogi Biztos szerint a megkérdezett 13 évesek fele arról számolt be, hogy „hardcore, nőgyűlölő” pornográf anyagokat látott közösségi média oldalakon. A gyermekek azt is tapasztalták, hogy az öngyilkosságról, önsértésről és étkezési rendellenességekről szóló tartalmak „bőségesen” jelen vannak, és az erőszakos tartalom „elkerülhetetlen”.
A NSPCC hangsúlyozza, hogy elengedhetetlen, hogy a szülők beszélgessenek gyermekeikkel az internetbiztonságról, és érdeklődjenek arról, mit csinálnak online. A kutatások szerint a szülők kétharmada használ valamilyen kontrolt, hogy korlátozza gyermekeik online tevékenységeit. A nagyobb brit internetes cégek által létrehozott Internet Matters szervezet rendelkezik egy listával a szülői kontrollokról és lépésről lépésre útmutatókkal arról, hogyan lehet azokat használni. Az Instagram például nem engedi, hogy a 13-15 éves felhasználók nyilvános fiókot hozzanak létre, hacsak nem adnak meg egy szülőt vagy gyámot a Teen Accounthoz. Az Instagram már bevezette a „teen accounts” funkciót, amely alapértelmezettként sok adatvédelmi beállítást aktivál. Az Ofcom adatai szerint azonban a gyermekek körülbelül egyötöde képes letiltani a szülői ellenőrzéseket. A telefon- és szélessávú szolgáltatók bizonyos explicit weboldalakat is blokkolhatnak, amíg a felhasználó nem bizonyítja, hogy 18 éven felüli. A játékkonzolok is lehetővé teszik a szülők számára, hogy biztosítsák a koruknak megfelelő játékokat és ellenőrizzék a játékon belüli vás

