एआई से बनाई जा रही हैं बच्चों की नग्न तस्वीरें: रिपोर्ट
२१ दिसम्बर २०२३जिस तरह एआई के जरिए इंसानों की तस्वीरें बनाना आसान हो गया है, उसी तरह से बच्चों की तस्वीरों को नग्न तस्वीरों में बदला जा रहा है. सोशल मीडिया पर साझा की जा रही बच्चों की तस्वीरों को नग्न तस्वीरों में बदला जा रहा है, जो कानूनी एजेंसियों और स्कूलों के लिए खतरे की घंटी है.
अब तक यौन शोषण के बारे में शोध करने वाले विशेषज्ञ मान रहे थे कि एआई के जरिए बच्चों की नग्न तस्वीरें तैयारकरने का अपराधियों के पास एकमात्र तरीका यही है कि वे वयस्क नग्न तस्वीरों को इंटरनेट पर उपलब्ध बच्चों के चेहरों के साथ मिला देते हैं. लेकिन स्टैन्फर्ड इंटरनेट ऑब्जरवेटरी ने अपनी रिसर्च में पाया है कि एआई इमेज डाटाबेस लायोन (LAION) में ही ऐसी करीब 3,200 नग्न तस्वीरें मौजूद हैं जिनका इस्तेमाल एआई टूल को वैसी और तस्वीरें बनाना सिखाने में किया जा रहा है. ऐसे में एआई टूल तस्वीरों को ज्यादा से ज्यादा असली दिखने वाली बनाना सीख रहे हैं.
लायोन ने हटाई तस्वीरें
इंटरनेट पर नजर रखने वाले इस समूह ने कनेडियन सेंटर फॉर चाइल्ड प्रोटेक्शन और बच्चों के लिए काम करने वाली अन्य संस्थाओं के साथ मिलकर काम किया है ताकि अवैध सामग्री की पहचान की जा सके और उसके बारे में सुरक्षा एजेंसियों को बताया जा सके. अपनी रिपोर्ट में संगठन ने कहा है कि उन्होंने ऐसी लगभग 1,000 तस्वीरों की पहचान की है.
रिपोर्ट आते ही लायोन ने इस बारे में तेजी से कदम उठाया है. बुधवार शाम को रिपोर्ट जारी होने के बाद लायोन ने समाचार एजेंसी एपी को बताया कि उसने अपना डाटाबेस अस्थायी तौर पर हटा लिया है.
लायोनयानी लार्ज-स्केल आर्टिफिशियल इंटेलिजेंस ओपन नेटवर्क एक गैरसरकारी संस्था है. उसने एक बयान जारी कर कहा, "अवैध सामग्री को हम जरा भी बर्दाश्त नहीं करते. सावधानी के तौर पर हमने लायोन के डाटाबेस को हटा लिया है ताकि उसे दोबारा प्रकाशित करने से पहले यह सुनिश्चित कर सकें कि सामग्री पूरी तरह सुरक्षित है.”
स्टैन्फर्ड समूह का कहना है कि लायोन तो इंटरनेट पर उपलब्ध करीब 5.8 अरब तस्वीरों के जखीरे में एक मामूली सी चीज है और संभव है कि ये अरबों तस्वीरें एआई टूल्स को खतरनाक तस्वीरें तैयार करना सिखा रही हों, जिसका असर ऐसी तस्वीरों के पुराने पीड़ितों पर भी पड़ सकता है जिनकी तस्वीरें कई-कई बार प्रकाशित होती रही हैं.
अब रोकना आसान नहीं
स्टैन्फर्ड के मुख्य तकनीकी अधिकारी डेविड टिएल कहते हैं कि इस समस्या को हल करना आसान नहीं है क्योंकि यह ऐसे कई एआई प्रोजेक्ट्स से जुड़ी है जो "बाजार में प्रभावशाली तरीके से उतारे जा रहे हैं.” और बहुत आसानी से उपलब्ध हैं क्योंकि मुकाबला बहुत ज्यादा है.
रिपोर्ट तैयार करने वाले टिएल कहते हैं, "पूरे इंटरनेट पर उपलब्ध जखीरे का इस्तेमाल करके (एआई) मॉडल्स को सिखाना सिर्फ शोध के काम तक सीमित होना चाहिए और कम से कम बिना सख्त निगरानी के उसे खुलेआम सबके लिए उपलब्ध नहीं कराया जाना चाहिए.”
इस रिपोर्ट को तैयार करने में लायोन का खूब इस्तेमाल करने वाली एक स्टार्टअप कंपनी स्टैबिलिटी एआई ने मदद की है. इस कंपनी ने शब्दों से तस्वीरें तैयार करने वाला मॉडल स्टेबल डिफ्यूजन विकसित किया है. स्टेबल डिफ्यूजन के आधुनिक वर्जन इस तरह विकसित किए गए हैं कि हानिकारक सामग्री तैयार करना मुश्किल हो गया है. लेकिन पिछले साल जो पुराना वर्जन अब भी कई एआई मॉडल्स में इस्तेमाल किया जा रहा है और आज भी "नग्न तस्वीरें तैयार करने के लिए सबसे ज्यादा इस्तेमाल किया जाने वाला मॉडल है.” हालांकि कंपनी का कहना है कि उसने यह मॉडल बाजार में जारी नहीं किया था.
कनेडियन सेंटर फॉर चाइल्ड प्रोटेक्शन के आईटी निदेशक लॉयड रिचर्डसन कहते हैं कि अब जो हो चुका है उसे बदलना आसान नहीं है. उन्होंने कहा, "हम इसे वापस तो नहीं ले सकते. मॉडल अब लोगों के कंप्यूटरों पर पहुंच चुका है.”
क्या है हल?
बच्चों के यौन शोषण के खिलाफ काम करने वाली संस्था थॉर्न में डाटा साइंस की डायरेक्टर रेबेका पोर्टनॉफ कहती हैं कि उनकी संस्था की रिसर्च में भी सामने आया है कि एआई से तैयार की गईं तस्वीरों का अपराधी इस्तेमाल कर रहे हैं. हालांकि इसका इस्तेमाल अभी बहुत ज्यादा नहीं है लेकिन यह तेजी से बढ़ रहा है.
पोर्टनोफ कहती हैं कि मॉडल विकसित करने वाले इंजीनियर इन खतरों को कम कर सकते हैं. इसके लिए उन्हें ऐसे एआई मॉडल विकसित करने होंगे जो हानिकारक सामग्री को पहचान सकें.
फिलहाल तकनीकी कंपनियां और बच्चों की सुरक्षा के लिए काम करने वाले संगठन हानिकारक सामग्री को पहचानने और हटाने के लिए यूनीक डिजिटल सिग्नेचर हैश का इस्तेमाल कर रहे हैं. पोर्टनोफ कहती हैं कि यही तरीका गलत तरीके से इस्तेमाल कर रहे मॉडलों पर भी प्रयोग किया जा सकता है.
वीके/एए (एपी)