नई दिल्ली. केंद्र सरकार ने आर्टिफिशियल इंटेलिजेंस (AI) से जनित डीपफेक और भ्रामक कंटेंट पर लगाम कसने के लिए नए आईटी नियम लागू कर दिए हैं। आज 20 फरवरी 2026 से प्रभावी इन नियमों के तहत, सोशल मीडिया प्लेटफॉर्म्स को अब AI कंटेंट पर लेबल लगाना होगा और किसी भी आपत्तिजनक पोस्ट को शिकायत के 3 घंटे के भीतर हटाना होगा।
आर्टिफिशियल इंटेलिजेंस (AI) के बढ़ते दुरुपयोग और डीपफेक से पैदा हो रहे खतरों से निपटने के लिए केंद्र सरकार ने सूचना प्रौद्योगिकी (IT) नियमों में बड़ा बदलाव किया है। आज 20 फरवरी 2026 से लागू हुए नए नियमों के अनुसार, अब AI की मदद से बनाए गए किसी भी फोटो, वीडियो या ऑडियो पर एक स्पष्ट लेबल लगाना अनिवार्य कर दिया गया है। इसके साथ ही, सोशल मीडिया कंपनियों को किसी भी गैर-कानूनी या आपत्तिजनक कंटेंट को शिकायत मिलने के मात्र 3 घंटे के भीतर अपने प्लेटफॉर्म से हटाना होगा।
यह कदम इंटरनेट को ज्यादा सुरक्षित और भरोसेमंद बनाने की दिशा में एक बड़ी पहल मानी जा रही है। पहले सोशल मीडिया कंपनियों को ऐसे कंटेंट को हटाने के लिए 36 घंटे का समय मिलता था, जिसे अब घटाकर 3 घंटे कर दिया गया है। सरकार ने 10 फरवरी को इसका नोटिफिकेशन जारी किया था।
1. AI लेबल: अब हर AI-जनित कंटेंट पर एक विजिबल मार्कर या ‘डिजिटल स्टैम्प’ लगाना होगा, जिससे यूजर को साफ पता चल सके कि यह कंटेंट असली नहीं है, बल्कि AI से बनाया गया है। उदाहरण के लिए, वीडियो पर ‘AI Generated’ जैसा लेबल दिख सकता है।
2. टेक्निकल मार्कर (मेटाडेटा): कंटेंट पर दिखने वाले लेबल के अलावा, फाइल की कोडिंग में एक ‘डिजिटल डीएनए’ भी जोड़ा जाएगा। इस मेटाडेटा में यह जानकारी छिपी होगी कि कंटेंट किस AI टूल से, कब और किस प्लेटफॉर्म पर बनाया गया। यह मार्कर कानूनी जांच में अपराधियों के सोर्स तक पहुंचने में मदद करेगा। सरकार ने स्पष्ट किया है कि इस लेबल या मेटाडेटा के साथ किसी भी तरह की छेड़छाड़ गैर-कानूनी होगी। अगर कोई यूजर इसे हटाने की कोशिश करता है, तो प्लेटफॉर्म को उस कंटेंट को डिलीट करना होगा।
सरकार ने अब कंटेंट को लेकर सोशल मीडिया प्लेटफॉर्म्स की जवाबदेही बढ़ा दी है। कंपनियों को यह सुनिश्चित करना होगा कि कोई भी यूजर AI-जनित कंटेंट अपलोड करते समय इसकी घोषणा करे। अगर कोई प्लेटफॉर्म बिना डिस्क्लोजर के ऐसे कंटेंट को पब्लिश होने देता है, तो उसे ही जिम्मेदार माना जाएगा।
आईटी एक्ट की धारा 79 के तहत कंपनियों को मिलने वाली कानूनी सुरक्षा, जिसे ‘सेफ हार्बर’ कहते हैं, अब इन नियमों के पालन पर निर्भर करेगी। अगर कोई कंपनी शिकायत मिलने पर 3 घंटे के भीतर आपत्तिजनक कंटेंट नहीं हटाती है, तो उसका यह सुरक्षा कवच खत्म हो जाएगा और उस पर भी कानूनी कार्रवाई हो सकती है।
यह नियम मुख्य रूप से सिंथेटिकली जनरेटेड इंफॉर्मेशन (SGI) पर केंद्रित हैं, यानी ऐसा ऑडियो, वीडियो या फोटो जिसे AI से इस तरह बनाया या बदला गया हो कि वह किसी असली व्यक्ति या घटना जैसा प्रतीत हो। हालांकि, फोटो की ब्राइटनेस बढ़ाना, वीडियो कंप्रेस करना या सबटाइटल जोड़ने जैसे सामान्य एडिटिंग कामों को इसके दायरे से बाहर रखा गया है। लेकिन अगर AI का इस्तेमाल फर्जी मार्कशीट या सरकारी दस्तावेज बनाने जैसे गैर-कानूनी कामों के लिए होता है, तो उसे कोई छूट नहीं मिलेगी।