नई दिल्ली
भारत में आर्टिफिशियल इंटेलिजेंस यानी एआई का इस्तेमाल तेजी से बढ़ रहा है, लेकिन इसके साथ ही फर्ज़ी वीडियो, डीपफेक, ऑनलाइन ठगी और गलत जानकारी का खतरा भी बढ़ा है. इन्हीं समस्याओं पर लगाम लगाने के लिए केंद्र सरकार ने आईटी नियमों में बड़ा बदलाव किया है. भारत सरकार ने इंफोर्मेशन टेक्नोलॉजी ((Intermediary Guidelines and Digital Media Ethics Code) रूल्स, 2021 में संशोधन करते हुए नए नियम नोटिफाई किए हैं, जो 20 फरवरी 2026 से लागू होंगे.
इन नए नियमों के तहत अब सोशल मीडिया प्लेटफॉर्म, मैसेजिंग ऐप्स, वीडियो शेयरिंग साइट्स और एआई टूल्स को यह साफ बताना होगा कि कोई कंटेंट एआई से बना है या उसमें एआई का इस्तेमाल किया गया है. भारत सरकार का साफ कहना है कि यूजर्स को यह जानने का हक है कि वो जो भी देख या सुन रहे हैं, वह असली है या आर्टिफिशियल इंटेलिजेंस यानी एआई टेक्नोलॉजी की मदद से बनाया गया है.
एआई और सिंथेटिक कंटेंट की नई परिभाषा
भारत सरकार ने एआई-जनरेटेड कंटेंट और सिंथेटिक कंटेंट की परिभाषा को पहले से ज्यादा बेहतर बना दिया है. अब फोटो, वीडियो, ऑडियो, ग्राफिक्स या किसी भी डिजिटल कंटेंट को, अगर कंप्यूटर या एआई टेक्नोलॉजी से इस तरह बदला गया है कि आम यूज़र को उसमें फर्क न समझ आए, तो उसे सिंथेटिक कंटेंट माना जाएगा. इसका सीधा निशाना डीपफेक कंटेंट है, जिसमें किसी व्यक्ति की नकली वीडियो या आवाज़ बनाकर उसे गलत तरीके से पेश किया जाता है.
ऐसे कंटेंट को अब गैरकानूनी जानकारी की कैटेगिरटी में रखा जाएगा. हालांकि, सरकार ने यह भी साफ किया है कि सामान्य फोटो एडिटिंग, कलर करेक्शन, सबटाइटल जोड़ना, ट्रांसलेशन, पढ़ाई या एक्सेसिबिलिटी से जुड़े काम सिंथेटिक कंटेंट नहीं माने जाएंगे, जब तक कि वो लोगों को गुमराह न करें.
AI कंटेंट पर लेबलिंग होगी जरूरी: नए नियमों के मुताबिक एआई से बने या बदले गए कंटेंट पर साफ लेबल लगाना अनिवार्य होगा. वीडियो में ऑन-स्क्रीन टैग दिखेगा और ऑडियो कंटेंट की शुरुआत में यह बताया जाएगा कि यह एआई से तैयार किया गया है. इसके अलावा कंटेंट में मेटाडेटा भी जोड़ा जाएगा, जिससे यह पता चल सके कि वह किस प्लेटफॉर्म या टूल से बनाया गया है.
कंटेंट हटाने की समय सीमा बेहद कम: अब किसी भी गैरकानूनी या नुकसानदेह कंटेंट को हटाने के लिए प्लेटफॉर्म्स को पहले की तरह 36 घंटे नहीं, बल्कि सिर्फ 3 घंटे का समय मिलेगा. आपातकालीन शिकायतों पर कार्रवाई का समय भी घटाकर 2 घंटे कर दिया गया है.
बड़े सोशल मीडिया प्लेटफॉर्म्स पर सख्ती: Facebook, Instagram, YouTube, X जैसे बड़े प्लेटफॉर्म्स को अब पोस्ट अपलोड करते वक्त यूजर्स से यह घोषणा लेनी होगी कि कंटेंट AI से बना है या नहीं. प्लेटफॉर्म्स को तकनीकी तरीकों से इस दावे की जांच भी करनी होगी और AI कंटेंट को साफ तौर पर अलग दिखाना होगा. नियमों का पालन न करने पर कानूनी कार्रवाई हो सकती है.
हर तीन महीने यूजर्स को चेतावनी जरूरी: डिजिटल प्लेटफॉर्म्स को अब हर तीन महीने में यूजर्स को यह याद दिलाना होगा कि नियम तोड़ने पर अकाउंट सस्पेंड या बंद हो सकता है. ये नोटिस अंग्रेजी या भारत की 22 आधिकारिक भाषाओं में दिए जा सकते हैं. गंभीर मामलों में प्लेटफॉर्म्स को पुलिस या जांच एजेंसियों को सूचना देना भी अनिवार्य होगा.
AI टूल देने वाली कंपनियों की जिम्मेदारी: जो प्लेटफॉर्म एआई या डीपफेक बनाने के टूल देते हैं, उन्हें यूजर्स को साफ चेतावनी देनी होगी कि गलत इस्तेमाल करने पर जेल और कानूनी कार्रवाई हो सकती है. अगर कोई नियम तोड़ता है, तो प्लेटफॉर्म को कंटेंट हटाने, अकाउंट बंद करने, सबूत सुरक्षित रखने और जरूरत पड़ने पर जानकारी शेयर करने की जिम्मेदारी निभानी होगी.
कुल मिलाकर, ये नए नियम भारत में एआई कंटेंट को लेकर अब तक की सबसे सख्त और व्यापक पहल माने जा रहे हैं, जो डिजिटल दुनिया को ज्यादा सुरक्षित बनाने की दिशा में बड़ा कदम हैं.









