एप डाउनलोड करें

भारत में AI कंटेंट पर नए नियम हुए लागू : प्लेटफॉर्म्स की जिम्मेदारी बढ़ी, ‘सेफ हार्बर’ की सुरक्षा सशर्त

दिल्ली Published by: paliwalwani Updated Fri, 20 Feb 2026 08:52 PM
विज्ञापन
Follow Us
विज्ञापन

वॉट्सऐप चैनल फॉलो करें

नई दिल्ली. केंद्र सरकार ने आर्टिफिशियल इंटेलिजेंस (AI) से जनित डीपफेक और भ्रामक कंटेंट पर लगाम कसने के लिए नए आईटी नियम लागू कर दिए हैं। आज 20 फरवरी 2026 से प्रभावी इन नियमों के तहत, सोशल मीडिया प्लेटफॉर्म्स को अब AI कंटेंट पर लेबल लगाना होगा और किसी भी आपत्तिजनक पोस्ट को शिकायत के 3 घंटे के भीतर हटाना होगा।

आर्टिफिशियल इंटेलिजेंस (AI) के बढ़ते दुरुपयोग और डीपफेक से पैदा हो रहे खतरों से निपटने के लिए केंद्र सरकार ने सूचना प्रौद्योगिकी (IT) नियमों में बड़ा बदलाव किया है। आज 20 फरवरी 2026 से लागू हुए नए नियमों के अनुसार, अब AI की मदद से बनाए गए किसी भी फोटो, वीडियो या ऑडियो पर एक स्पष्ट लेबल लगाना अनिवार्य कर दिया गया है। इसके साथ ही, सोशल मीडिया कंपनियों को किसी भी गैर-कानूनी या आपत्तिजनक कंटेंट को शिकायत मिलने के मात्र 3 घंटे के भीतर अपने प्लेटफॉर्म से हटाना होगा।

यह कदम इंटरनेट को ज्यादा सुरक्षित और भरोसेमंद बनाने की दिशा में एक बड़ी पहल मानी जा रही है। पहले सोशल मीडिया कंपनियों को ऐसे कंटेंट को हटाने के लिए 36 घंटे का समय मिलता था, जिसे अब घटाकर 3 घंटे कर दिया गया है। सरकार ने 10 फरवरी को इसका नोटिफिकेशन जारी किया था।

AI कंटेंट पर ‘डिजिटल स्टैम्प’ और ‘मेटाडेटा’ अनिवार्य

नए नियमों के तहत AI से बने कंटेंट की पहचान सुनिश्चित करने के लिए दो-स्तरीय व्यवस्था लागू की गई है...,

1. AI लेबल: अब हर AI-जनित कंटेंट पर एक विजिबल मार्कर या ‘डिजिटल स्टैम्प’ लगाना होगा, जिससे यूजर को साफ पता चल सके कि यह कंटेंट असली नहीं है, बल्कि AI से बनाया गया है। उदाहरण के लिए, वीडियो पर ‘AI Generated’ जैसा लेबल दिख सकता है।

2. टेक्निकल मार्कर (मेटाडेटा): कंटेंट पर दिखने वाले लेबल के अलावा, फाइल की कोडिंग में एक ‘डिजिटल डीएनए’ भी जोड़ा जाएगा। इस मेटाडेटा में यह जानकारी छिपी होगी कि कंटेंट किस AI टूल से, कब और किस प्लेटफॉर्म पर बनाया गया। यह मार्कर कानूनी जांच में अपराधियों के सोर्स तक पहुंचने में मदद करेगा। सरकार ने स्पष्ट किया है कि इस लेबल या मेटाडेटा के साथ किसी भी तरह की छेड़छाड़ गैर-कानूनी होगी। अगर कोई यूजर इसे हटाने की कोशिश करता है, तो प्लेटफॉर्म को उस कंटेंट को डिलीट करना होगा।

प्लेटफॉर्म्स की जिम्मेदारी बढ़ी, ‘सेफ हार्बर’ की सुरक्षा सशर्त

सरकार ने अब कंटेंट को लेकर सोशल मीडिया प्लेटफॉर्म्स की जवाबदेही बढ़ा दी है। कंपनियों को यह सुनिश्चित करना होगा कि कोई भी यूजर AI-जनित कंटेंट अपलोड करते समय इसकी घोषणा करे। अगर कोई प्लेटफॉर्म बिना डिस्क्लोजर के ऐसे कंटेंट को पब्लिश होने देता है, तो उसे ही जिम्मेदार माना जाएगा।

आईटी एक्ट की धारा 79 के तहत कंपनियों को मिलने वाली कानूनी सुरक्षा, जिसे ‘सेफ हार्बर’ कहते हैं, अब इन नियमों के पालन पर निर्भर करेगी। अगर कोई कंपनी शिकायत मिलने पर 3 घंटे के भीतर आपत्तिजनक कंटेंट नहीं हटाती है, तो उसका यह सुरक्षा कवच खत्म हो जाएगा और उस पर भी कानूनी कार्रवाई हो सकती है।

किन चीजों पर लागू होंगे नियम?

यह नियम मुख्य रूप से सिंथेटिकली जनरेटेड इंफॉर्मेशन (SGI) पर केंद्रित हैं, यानी ऐसा ऑडियो, वीडियो या फोटो जिसे AI से इस तरह बनाया या बदला गया हो कि वह किसी असली व्यक्ति या घटना जैसा प्रतीत हो। हालांकि, फोटो की ब्राइटनेस बढ़ाना, वीडियो कंप्रेस करना या सबटाइटल जोड़ने जैसे सामान्य एडिटिंग कामों को इसके दायरे से बाहर रखा गया है। लेकिन अगर AI का इस्तेमाल फर्जी मार्कशीट या सरकारी दस्तावेज बनाने जैसे गैर-कानूनी कामों के लिए होता है, तो उसे कोई छूट नहीं मिलेगी।

चाइल्ड पोर्नोग्राफी, अश्लीलता, धोखाधड़ी या किसी व्यक्ति की नकल उतारने (इम्पर्सनेशन) के लिए AI का इस्तेमाल एक गंभीर अपराध माना जाएगा। नियम न मानने पर भारतीय न्याय संहिता (BNS) और आईटी एक्ट के मौजूदा प्रावधानों के तहत कड़ी कार्रवाई की जाएगी, जिसमें 3 साल तक की जेल भी शामिल है।

और पढ़ें...
विज्ञापन
Next