आखरी अपडेट:
आईटी नियम 2026 डीपफेक जैसी एआई-जनित सामग्री के लिए विनियमन का विस्तार करता है। सोशल मीडिया प्लेटफ़ॉर्म को समय सीमा के भीतर भ्रामक सामग्री को लेबल करना, हटाना या प्रतिबंधित करना होगा या दंड का सामना करना पड़ेगा

नियम एआई-जनित सामग्री पर अस्पष्टता को दूर करते हैं। (प्रतिनिधित्व के लिए AI निर्मित छवि)
सरकार ने मंगलवार को आईटी अधिनियम, 2000 के तहत जारी नए सूचना प्रौद्योगिकी (मध्यवर्ती दिशानिर्देश और डिजिटल मीडिया आचार संहिता) संशोधन नियम, 2026 को अधिसूचित किया, जो 2021 नियमों में संशोधन करता है और सोशल मीडिया प्लेटफॉर्म, मैसेजिंग सेवाओं, सामग्री-होस्टिंग वेबसाइटों और एआई-आधारित प्लेटफार्मों सहित सभी ऑनलाइन मध्यस्थों पर लागू होता है।
20 फरवरी 2026 से प्रभावी संशोधन, कृत्रिम-बुद्धिमत्ता-जनित, सिंथेटिक और हेरफेर की गई सामग्री – जैसे डीपफेक, वॉयस क्लोनिंग और एल्गोरिदमिक रूप से परिवर्तित पाठ, चित्र, ऑडियो या वीडियो – को विनियमित ऑनलाइन सामग्री की परिभाषा के भीतर लाकर नियामक दायरे का महत्वपूर्ण रूप से विस्तार करते हैं।
ऐसा करने से, नियम इस बारे में किसी भी अस्पष्टता को दूर कर देते हैं कि एआई-जनरेटेड सामग्री कवर की जाती है या नहीं और ऐसी सामग्री को भारतीय कानून के तहत उपयोगकर्ता-जनित जानकारी के अन्य रूपों के समान माना जाता है।
नए नियम किन पर लागू होंगे?
आईटी अधिनियम, 2000 की धारा 87 के तहत जारी ये नियम 2021 आईटी नियमों में संशोधन करते हैं। वे सभी मध्यस्थों पर लागू होते हैं, जिनमें सोशल मीडिया प्लेटफ़ॉर्म, मैसेजिंग ऐप, वीडियो-शेयरिंग प्लेटफ़ॉर्म, एआई-संचालित सामग्री प्लेटफ़ॉर्म, कोई भी सेवा जो होस्ट, प्रकाशित, प्रसारित या उपयोगकर्ता-जनित सामग्री तक पहुंच सक्षम करती है।
वे कब लागू होंगे?
वे 20 फरवरी, 2026 से लागू होंगे
नई परिभाषाएँ क्या हैं?
नियम अब सामग्री को स्पष्ट रूप से परिभाषित करते हैं:
- पूरी तरह या आंशिक रूप से एआई, एल्गोरिदम या स्वचालित सिस्टम द्वारा उत्पन्न
- पाठ, चित्र, ऑडियो, वीडियो या मिश्रित प्रारूप शामिल हैं
- डीपफेक, परिवर्तित दृश्य, वॉयस क्लोनिंग और नकली पहचान को कवर करता है
इससे इस बारे में अस्पष्टता समाप्त हो जाती है कि क्या एआई-जनित सामग्री को विनियमित किया जाता है – यह स्पष्ट रूप से है।
कौन सी सामग्री विनियमित है?
सामग्री को विनियमित माना जाता है यदि वह – वास्तविकता को भ्रामक तरीके से बदल देती है; तथ्यों, पहचान या घटनाओं के बारे में उपयोगकर्ताओं को गुमराह करने में सक्षम है; बिना प्रकटीकरण के प्रामाणिक के रूप में प्रस्तुत किया जाता है।
सोशल मीडिया कंपनियों और प्लेटफ़ॉर्म के लिए इसका क्या मतलब है?
प्लेटफार्मों को अब केवल प्रतिक्रियात्मक कदम नहीं, बल्कि सक्रिय जिम्मेदारी लेनी चाहिए।
क) उल्लंघनों को रोकने के लिए उचित प्रयास: बिचौलियों को गैरकानूनी सामग्री की मेजबानी या प्रसार को रोकना होगा; स्वचालित उपकरण, मानव समीक्षा, या अन्य उचित उपायों का उपयोग करें; और दुरुपयोग को कम करने के लिए नियमित रूप से अपने सिस्टम की समीक्षा करें।
जानकारी के बावजूद कार्य करने में विफलता को गैर-अनुपालन माना जाता है
बी) निषिद्ध सामग्री श्रेणियां: प्लेटफार्मों को भारतीय कानूनों (आपराधिक, नागरिक, नियामक) का उल्लंघन करने वाली सामग्री के खिलाफ कार्रवाई करनी चाहिए; राष्ट्रीय सुरक्षा और सार्वजनिक व्यवस्था; न्यायालय के आदेश या सरकारी निर्देश; उपयोगकर्ता सुरक्षा और गरिमा (उत्पीड़न, प्रतिरूपण, धोखा)
निष्कासन और पहुंच प्रतिबंध पर नियम क्या हैं?
वैध कानूनी शक्तियों के तहत अदालतों, सरकारी अधिकारियों द्वारा निर्देशित किए जाने पर आदेशों पर अनिवार्य प्रतिक्रिया की आवश्यकता होती है। प्लेटफ़ॉर्म को सामग्री हटानी होगी, पहुंच अक्षम करनी होगी, दृश्यता प्रतिबंधित करनी होगी और विफलता या देरी को नियमों का उल्लंघन माना जाएगा।
अगर देरी हुई तो क्या होगा?
संशोधन प्रतिक्रिया समयसीमा को छोटा और स्पष्ट करते हैं, यह संकेत देते हुए कि देरी पर जुर्माना लगाया जा सकता है। आंशिक अनुपालन पर्याप्त नहीं है.
‘3-घंटे की विंडो’ क्या है? यह कब लागू होता है?
3 घंटे की विंडो संशोधित आईटी नियम ढांचे में निर्मित एक आपातकालीन अनुपालन समयरेखा है। यह असाधारण, उच्च जोखिम वाली स्थितियों में लागू होता है, नियमित शिकायतों पर नहीं।
यह उन मामलों के लिए है जब एक मध्यस्थ को ऐसी सामग्री से संबंधित कानूनी निर्देश प्राप्त होता है जो तत्काल और गंभीर जोखिम पैदा करता है, जैसे कि राष्ट्रीय सुरक्षा या सार्वजनिक व्यवस्था के लिए खतरा; हिंसा, दंगे, या सामूहिक क्षति का जोखिम; आतंकवाद, बाल यौन शोषण सामग्री, या गंभीर प्रतिरूपण से जुड़ी सामग्री; या समय-संवेदनशील गलत सूचना से वास्तविक दुनिया को नुकसान होने की संभावना है।
ऐसे मामलों में, प्लेटफ़ॉर्म से दिशा प्राप्त होने के 3 घंटे के भीतर पहुंच को हटाने, ब्लॉक करने या अक्षम करने की अपेक्षा की जाती है।
यह विंडो इसलिए मौजूद है क्योंकि तेजी से फैल रहे डिजिटल नुकसान के लिए 24 घंटे इंतजार करने में बहुत देर हो सकती है। तीन घंटे की अवधि वैकल्पिक नहीं है और न ही परामर्शात्मक है। इस अवधि के भीतर कार्य करने में विफलता को प्रथम दृष्टया गैर-अनुपालन माना जाता है, भले ही बाद में कार्रवाई की जाए।
लेबलिंग क्लॉज क्या है?
लेबलिंग खंड मुख्य रूप से एआई-जनित, सिंथेटिक या हेरफेर की गई सामग्री से संबंधित है। बिचौलियों को यह सुनिश्चित करना होगा कि उपयोगकर्ता सिंथेटिक या एआई-जनरेटेड सामग्री को वास्तविक मानने में गुमराह न हों, खासकर जब:
- किसी वास्तविक व्यक्ति की पहचान, आवाज़, छवि या समानता का उपयोग किया जाता है
- सामग्री जनता की राय, विश्वास या व्यवहार को प्रभावित कर सकती है
- सामग्री को तथ्यात्मक या प्रामाणिक के रूप में प्रस्तुत किया जाता है
प्लेटफ़ॉर्म सामग्री को “एआई-जनरेटेड”, “सिंथेटिक”, या “हेरफेर” के रूप में लेबल करके अनुपालन कर सकते हैं; प्रासंगिक चेतावनियाँ जोड़ना; यदि लेबलिंग संभव न हो तो दृश्यता या वितरण कम करना; और यदि सामग्री भ्रामक या हानिकारक है तो उसे हटा देना
कौन जिम्मेदार है?
जिम्मेदारी साझा की गई है. उपयोगकर्ताओं को जानबूझकर सिंथेटिक सामग्री को वास्तविक के रूप में गलत ढंग से प्रस्तुत नहीं करना चाहिए। प्लेटफ़ॉर्म को इसकी जानकारी होने पर ऐसी सामग्री का पता लगाने, चिह्नित करने या लेबल करने के लिए उचित कदम उठाने चाहिए
यदि प्लेटफ़ॉर्म इन शर्तों का पालन नहीं करते तो क्या होगा?
3-घंटे की विंडो गायब होने के लिए: सुरक्षित बंदरगाह सुरक्षा का तत्काल नुकसान; संभावित आपराधिक या नागरिक दायित्व; अदालत या सरकारी प्रवर्तन कार्रवाई के लिए मजबूत आधार
लेबलिंग आवश्यकता का उल्लंघन करने के लिए: सामग्री को भ्रामक या गैरकानूनी माना जाएगा; अनिवार्य निष्कासन या प्रतिबंध; बार-बार विफलता को प्रणालीगत गैर-अनुपालन के रूप में गिना जा सकता है।
समय सीमा क्या हैं?
24 घंटे – त्वरित प्रतिक्रिया दायित्व: यह सबसे अधिक बार शुरू होने वाली समय सीमा है।
यह सार्वजनिक व्यवस्था, सुरक्षा या संप्रभुता को प्रभावित करने वाली सामग्री पर लागू होता है। अवैध, भ्रामक या हानिकारक सामग्री से संबंधित शिकायतें। गंभीर उपयोगकर्ता शिकायतों पर प्रारंभिक प्रतिक्रिया
क्या करना होगा?
मुद्दे को स्वीकार करें
अंतरिम कार्रवाई करें (हटाएं, प्रतिबंधित करें, रैंक घटाएं या पहुंच को ब्लॉक करें)
औपचारिक समीक्षा शुरू करें
प्लेटफ़ॉर्म कार्रवाई से पहले पूर्ण आंतरिक मूल्यांकन की प्रतीक्षा नहीं कर सकते।
36 घंटे – कुछ सरकारी निर्देश: यह ऐसे मामलों में है जहां एक वैध सरकारी आदेश इस विंडो को निर्दिष्ट करता है (2021 ढांचे से आगे बढ़ाया और प्रबलित)।
बिचौलियों को चाहिए:
36 घंटों के भीतर सामग्री तक पहुंच हटाएं या अक्षम करें
यदि आवश्यक हो तो अनुपालन रिपोर्ट करें
विफलता को उचित परिश्रम दायित्वों के तहत गैर-अनुपालन के रूप में गिना जाता है।
72 घंटे – अधिकारियों को सूचना सहायता: कानूनी रूप से आवश्यक होने पर, मध्यस्थों को जानकारी, डेटा सहायता, उपयोगकर्ता या सामग्री विवरण (जैसा कि कानून द्वारा अनुमति है) प्रदान करना होगा। यह मुख्य रूप से जांच और कानून-प्रवर्तन सहयोग पर लागू होता है।
24 घंटे – शिकायत स्वीकृति: प्लेटफ़ॉर्म की शिकायत प्रणाली के माध्यम से दर्ज की गई उपयोगकर्ता शिकायतों के लिए, शिकायत को 24 घंटे के भीतर स्वीकार किया जाना चाहिए। चुप्पी या स्वचालित गैर-प्रतिक्रिया को शिकायत तंत्र की विफलता माना जाता है
15 दिन – अंतिम शिकायत समाधान: प्लेटफार्मों को 15 दिनों के भीतर अंतिम परिणाम तय करना होगा और सूचित करना होगा। उन्हें कार्रवाई या निष्क्रियता का कारण बताना होगा। उल्लंघन पाए जाने पर सुधारात्मक कदम उठाएं। अनसुलझे या नजरअंदाज की गई शिकायतें मंच के अनुपालन रिकॉर्ड को कमजोर करती हैं।
“बिना देरी के” – स्व-पता लगाया गया उल्लंघन: यह तब लागू होता है जब कोई प्लेटफ़ॉर्म एआई टूल या आंतरिक समीक्षा के माध्यम से अवैध या निषिद्ध सामग्री का पता लगाता है या किसी स्रोत के माध्यम से उल्लंघन के बारे में पता चलता है
तत्काल/चल रही – बार-बार अपराधी की कार्रवाई: बार-बार नियमों का उल्लंघन करने वाले खातों के लिए, प्लेटफ़ॉर्म को समय पर कार्रवाई करनी चाहिए। निरंतर सहनशीलता को प्रणालीगत विफलता के रूप में माना जा सकता है। कोई निश्चित घंटे की गिनती नहीं दी गई है, लेकिन प्रवर्तन त्वरित और आनुपातिक होना चाहिए।
जैसा कि आदेश में निर्दिष्ट है – न्यायालय के निर्देश: अदालतें तात्कालिकता के आधार पर कस्टम समयसीमा निर्धारित कर सकती हैं। ये सामान्य समय-सीमाओं को ओवरराइड करते हैं। यहां तक कि छोटी अनुपालन खिड़कियां भी लगाई जा सकती हैं।
कंपनियों से क्या अपेक्षा है?
बिचौलियों को स्वचालित मॉडरेशन टूल तैनात करने, हानिकारक या सिंथेटिक सामग्री के लिए एआई डिटेक्शन सिस्टम का उपयोग करने, मानव निरीक्षण के साथ स्वचालन को संयोजित करने की अनुमति है – और अपेक्षित है – हालांकि, उपकरण आनुपातिक होने चाहिए, समीक्षा के बिना अत्यधिक निष्कासन को अभी भी चुनौती दी जा सकती है।
यूजर्स को क्या जानकारी देनी है?
प्रतिबंधित सामग्री के बारे में उपयोगकर्ताओं को स्पष्ट रूप से सूचित करें। सामग्री हटाने, खाता निलंबन, कम पहुंच या दृश्यता जैसे परिणामों की व्याख्या करें। उपयोगकर्ताओं को यह समझने में सक्षम होना चाहिए कि कार्रवाई क्यों की गई।
बार-बार या गंभीर अपराधियों के विरुद्ध क्या कार्रवाई की जाती है?
मध्यस्थ खातों को निलंबित या समाप्त कर सकते हैं, पोस्टिंग या साझाकरण सुविधाओं को प्रतिबंधित कर सकते हैं, सामग्री की दृश्यता को सीमित कर सकते हैं। विशेषकर बार-बार उल्लंघन, गंभीर क्षति या धोखे, समन्वित दुरुपयोग के मामलों में।
क्या कोई शिकायत निवारण ढांचा है?
प्लेटफार्मों को एक प्रभावी शिकायत तंत्र बनाए रखना चाहिए, निर्धारित समयसीमा के भीतर शिकायतों पर कार्रवाई करनी चाहिए, अनसुलझे मुद्दों को उचित रूप से आगे बढ़ाना चाहिए। शिकायतों का जवाब न देना अनुपालन के विरुद्ध गिना जाता है।
धारा 79 के अंतर्गत सुरक्षित बंदरगाह क्या है?
यह बिचौलियों को उपयोगकर्ता सामग्री के लिए दायित्व से तभी बचाता है जब वे नियमों का पालन करते हैं।
सुरक्षित आश्रय खो जाता है यदि – उचित परिश्रम का पालन नहीं किया जाता है; प्लेटफ़ॉर्म जानबूझकर अवैध या हानिकारक सामग्री की अनुमति देते हैं; आदेशों की अनदेखी की जाती है या देरी की जाती है।
एक बार सुरक्षित बंदरगाह समाप्त हो जाने पर, प्लेटफ़ॉर्म पर सीधे मुकदमा चलाया जा सकता है या मुकदमा चलाया जा सकता है।
क्या वे अन्य कानूनों के अनुरूप हैं?
नियम स्पष्ट रूप से भारतीय न्याय संहिता / आपराधिक कानूनों, साइबर सुरक्षा कानूनों, उपभोक्ता संरक्षण कानूनों और बौद्धिक संपदा कानूनों के अनुरूप हैं।
10 फरवरी, 2026, 17:55 IST
और पढ़ें
