संयुक्त राष्ट्र की संस्था यूनिसेफ ने कहा है कि आर्टिफिशियल इंटेलिजेंस (ए आई) से तैयार बच्चों का अश्लील चित्रण एक तरह से बाल यौन शोषण है और इसे अपराध माना जाना चाहिए। यूनिसेफ ने एआई उपकरणों द्वारा आपत्तिजनक सामग्री तैयार करने की बढ़ती प्रवृत्ति पर चेतावनी दी है।

संगठन ने कहा है कि एआई से तैयार ऐसी सामग्री दुनियाभर में चिंता का विषय है और ऐसे भी मामले सामने आये हैं जहां बच्चों के चित्रों से छेड़छाड़ कर उन्हें डीपफेक तकनीक से अश्लील रूप में दिखाया जाता है। यूनिसेफ का कहना है इस तकनीक से बच्चों के नग्न चित्र दिखाये जाते हैं।
संयुक्त राष्ट्र संस्था ने दुनियाभर की सरकारों से अनुरोध किया है कि वे अपने कानूनों में बाल यौन शोषण की कानूनी परिभाषा का विस्तार करें और इसमें ए आई से तैयार सामग्री के निर्माण, खरीद और वितरण को आपराधिक गतिविधि माना जाए। यूनिसेफ ने ए आई विकसित करने वाली संस्थाओं से भी कहा है कि ऐसी किसी सामग्री के प्रसार को रोकने के लिए सुरक्षा के कडे मापदंड अपनायें।







