Aplikacje oparte na sztucznej inteligencji mają różne zastosowania. Wiele z nich to bardzo użyteczne narzędzia, ale są także takie, które można sklasyfikować w ramach „ciemnej strony AI”. Do takich z pewnością zalicza się nudify, któremu bliżej przyjrzeli się specjaliści z firmy Graphika.
Aplikacje do „rozbierania” kobiet zyskują na popularności. Badacze z firmy Graphika przeanalizowali ruchy i trendy w internecie, gdzie zaobserwowano, że. Tylko we wrześniu 2023 r. zauważono, że strony z podobnymi narzędziami zostały odwiedzone przez. Problem narasta, co widać po ruchu w sieci.
Z informacji ujawnionych przez firmę Graphika wynika, że od początku br. liczba linków odsyłających do stron internetowych powiązanych z zagadnieniem „nudify”! W szczególności obserwuje się to w platformach X (dawniej Twitter) oraz Reddit. Do tego dochodzą grupy na poświęcone podobnym narzędziom opartym na sztucznej inteligencji i część z nich również gromadzi wielu internautów. Co najmniej 53 takie „społeczności” mają po milion lub więcej użytkowników.
Aplikacje do „rozbierania” kobiet generują obrazy z użyciem AI. Jeśli zastanawiacie się nad tym, jak działa tego typu oprogramowanie, to odpowiedź jest prosta. Specjalne algorytmy pozwalają na podstawie prawdziwych zdjęć. Takie fotki można pobrać z publicznie dostępnych profili z Instagramu czy innych mediów społecznościowych. Następnie AI przetwarza je i „dorabia” nieprawdziwe elementy do zdjęć.
Problem jest duży, bo tego typu przerobione zdjęcia można wykorzystać później na przykład w ramach szantażu. Nawet jeśli są nieprawdziwe, to mogą zostać użyte w niecnych celach, a historia zna już podobne przypadki. niestety wyprzedza prawo i choć, tak nadal tego typu aplikacje są powszechnie dostępne i pozwalają w zasadzie na „rozebranie” każdego za pomocą kilku dotknięć na ekranie.
Pewne działania związane z walką z takimi zagrożeniami podjęła firma (właściciel Facebooka) oraz twórcy TikToka, którzy ograniczyli dostęp do podobnych narzędzi we własnych platformach.