A Comprehensive Assessment of AI Tools Extensively Used by Minors in India
Policy Research Report by Advanced Study Institute of Asia (ASIA) , March 2026
Executive Summary
This document examines widely used AI tools among minors in India and evaluates their compliance with the Digital Personal Data Protection Act, 2023 (DPDP Act). Compliance under the DPDP framework follows a structured, phased implementation through the Digital Personal Data Protection Rules, 2025, with an 18-month transition period concluding in May 2027.
The implementation roadmap prioritises immediate institutional readiness by regulatory authorities, followed by medium-term obligations such as the operationalisation of Consent Managers within the first 12 months, and culminating in full compliance requirements at the 18-month stage, including data auditing, enforceable consent mechanisms, and breach notification systems. This report situates its analysis within this transition timeline, assessing platform preparedness as the statutory deadline approaches.
Against this regulatory backdrop, the report presents a structured, quantitative assessment of fourteen AI platforms extensively used by minors in India. Each platform is evaluated against fourteen compliance criteria derived directly from the DPDP Act and the Draft Rules. Across 196 individual criterion-level assessments (14 platforms × 14 criteria), 71% of platform practices are found to be outright non-compliant, 16% partially compliant, and only 13% relatively aligned with statutory requirements.
These findings reveal a systemic and structural misalignment between the design and operation of AI platforms and India’s child data protection framework. The analysis demonstrates that most platforms fail to meet core statutory obligations, particularly in relation to verifiable parental consent, restrictions on behavioural tracking, and safeguards against harm to child well-being. The rapid integration of AI tools into educational and digital ecosystems has significantly outpaced regulatory compliance, exposing minors to persistent and large-scale privacy and developmental risks.
Core Findings
The assessment identifies several consistent patterns of non-compliance across platforms.
1. Absence of Verifiable Parental Consent
The requirement of verifiable parental consent remains largely unfulfilled in practice. Most platforms rely on low-assurance mechanisms such as self-declaration, email-based acknowledgment, or account-level permissions, none of which meet the statutory threshold of verifiability. This gap is not incidental but systemic, reflecting a broader absence of high-assurance identity verification mechanisms tailored to child users.
2. Conflict Between Platform Architecture and Legal Prohibitions
There exists a fundamental conflict between platform architecture and the legal prohibition on behavioural tracking of children. Core features such as personalisation, recommendation systems, adaptive learning, and usage analytics depend on continuous monitoring of user behaviour. These functions are integral to platform performance and user engagement, yet they operate in direct tension with statutory restrictions on profiling and tracking.
3. Systemic Age-Threshold Discrepancy
The report highlights a systemic age-threshold discrepancy. While the DPDP Act defines a child as any individual below eighteen years of age, most platforms adopt a minimum age of thirteen, consistent with international regulatory standards. This creates a five-year regulatory gap, resulting in Indian users aged thirteen to seventeen being treated as adults by platforms despite being legally classified as children. As a consequence, key protections relating to consent and processing restrictions are effectively bypassed.
4. Variation Across Platform Categories
Compliance outcomes vary across platform categories. Social media and general-purpose AI platforms demonstrate the highest levels of non-compliance, with risk scores approaching complete failure across assessed criteria. Educational technology platforms perform relatively better, reflecting their functional alignment with learning objectives, but still fall within medium-risk categories due to persistent gaps in consent, tracking, and data governance. Government-operated platforms show comparatively lower risk, yet do not achieve full compliance and therefore cannot be considered fully aligned with statutory requirements.
Risk Landscape
The risk landscape emerging from this assessment is both extensive and structurally embedded. Ten out of the fourteen platforms fall within high or very high-risk categories, indicating widespread non-compliance across the ecosystem. In several instances, platforms demonstrate failure across nearly all assessed criteria, suggesting that compliance considerations have not been meaningfully integrated into platform design. A defining feature of this landscape is the convergence of high risk and high user reach. Platforms with the largest user bases among minors also exhibit the highest levels of non-compliance, creating a multiplier effect in which systemic risks, such as unauthorised data processing, profiling, and insufficient safeguards, are experienced at scale across millions of users.
The analysis further indicates that certain compliance failures are universal across platforms. Parental consent mechanisms, consent withdrawal processes, and behavioural tracking restrictions show near-total failure rates irrespective of platform category or risk tier, pointing to structural issues inherent in prevailing digital business models rather than isolated deficiencies. This risk environment is further complicated by cross-border data flows, as many platforms operate on global infrastructures that involve the processing and storage of children’s data across multiple jurisdictions. Ensuring DPDP-equivalent protections in such contexts remains a significant challenge, particularly in the absence of transparent, enforceable, and jurisdiction-specific safeguards.
Critical Areas of Non-Compliance
Five areas emerge as the most significant and recurring compliance failures:
- Absence of robust and verifiable parental consent mechanisms- The reliance on self-declaration or low-assurance consent processes fundamentally undermines the statutory requirement of informed and authenticated authorisation.
- Inadequacy of consent withdrawal mechanisms- Withdrawing consent often involves navigating complex and fragmented interfaces and does not result in the complete erasure of personal data, directly contravening the statutory requirement that withdrawal be as easy as giving consent.
- Underdeveloped grievance redressal systems- Platforms often rely on generic, global support structures that do not meet the accessibility, timeliness, and accountability requirements under Indian law, limiting the ability of parents and guardians to effectively exercise their rights.
- Lack of transparency in third-party data sharing- Platform ecosystems involve multiple processors, including cloud providers, analytics services, and other intermediaries, without clear disclosures or meaningful options to restrict sharing.
- Age-threshold discrepancy- The most structurally significant failure: by treating users between thirteen and seventeen as adults, platforms effectively exclude a large segment of minors from statutory protections, undermining the core objective of the DPDP framework.
Emerging Risks
Beyond immediate compliance gaps, the report identifies a set of emerging risks associated with the increasing integration of AI into children’s digital environments.
- AI-generated output quality- AI systems may produce inaccurate, biased, or contextually inappropriate responses that minors may not be equipped to critically assess, thereby influencing learning outcomes and psychological development.
- Multimodal data inputs- Growing use of camera, voice, and other biometric-adjacent data, when processed without explicit and verifiable parental consent, significantly heightens privacy risks.
- Normalisation of continuous profiling- Persistent tracking of learning patterns and user behaviour can lead to enduring digital profiles with long-term implications for autonomy, fairness, and future data use.
- Over-reliance on AI in education- The increasing integration of AI into core educational processes may affect cognitive development, critical thinking, and independent problem-solving abilities.
- Regulatory lag-The pace of technological development relative to regulatory enforcement introduces a structural lag, resulting in gaps in protection and enforcement as AI capabilities evolve.
Policy Implication
- Enforceable Child Data Safeguards: All platforms, including international operators, should implement verifiable parental consent mechanisms, age-appropriate design standards, and proportionate age verification systems in a phased but enforceable manner. Technically enforced age-gating aligned with India’s 18-year threshold should be adopted, and reliance on self-declaration mechanisms should not be treated as compliant. Deferral, dilution, or superficial compliance should not be permitted beyond the notified implementation framework.
- Heightened Oversight of Government Platforms: Government-affiliated platforms such as SATHEE and DIKSHA should function as benchmark compliance models and should be subject to enhanced oversight, including mandatory disclosures, periodic compliance reporting, and demonstrable progress benchmarks. Immediate corrective action should be undertaken to address gaps in age verification and parental consent, and any failure to meet expected standards should trigger review and appropriate intervention.
- Transparency and User-Centric Compliance Requirements: Platforms should ensure the availability of regional language interfaces and child-specific privacy disclosures as a baseline compliance requirement to enable informed and meaningful consent. The absence of such measures should be treated as a material compliance deficiency affecting the validity of user consent.
- Regulatory Clarity, Public Accountability, and Awareness Measures: The Data Protection Board of India should issue sector-specific guidance on AI platforms and the processing of minors’ data, while international platforms should submit India-specific compliance roadmaps with clearly defined milestones. The Government should establish a centralized public compliance dashboard to track platform readiness and adherence to child data protection norms, and undertake targeted awareness initiatives for parents—particularly young and first-time digital users. The educational exemption under the applicable Rules should be construed narrowly and strictly, and the prohibition under Section 9(2) should operate as an absolute boundary. No exemption should be interpreted to permit AI-driven processing that is detrimental to the well-being of children. A stringent, continuously monitored compliance approach should be maintained to ensure full alignment by May 2027.
- Grievance Redressal for Child-Specific Complaints : Platforms should also establish child-sensitive grievance redressal mechanisms and be subject to periodic independent audits to ensure verifiable compliance. Data collection and processing of children’s data should be limited to what is strictly necessary for the specified purpose.
Download the full report (English Version)
बच्चों के डेटा में DPDP नियमों का पालन
भारत में बच्चों द्वारा उपयोग किए जाने वाले एआई टूल्स का व्यापक मूल्यांकन
कार्यकारी सारांश (Executive Summary)
यह रिपोर्ट उन एआई टूल्स के बारे में बताती है जिनका इस्तेमाल भारत में बच्चे करते हैं। इसमें यह देखा गया है कि ये टूल्स डिजिटल पर्सनल डेटा प्रोटेक्शन कानून, 2023 (DPDP कानून) के नियमों का सही तरीके से पालन कर रहे हैं या नहीं। यह कानून धीरे-धीरे लागू हो रहा है और DPDP नियम, 2025 के तहत इसके लिए 18 महीनों का समय दिया गया है, जो मई 2027 तक पूरा होगा।
इस 18 महीने की अवधि में पहले सरकार और नियामक संस्थाओं को तैयार होना है। इसके बाद पहले 12 महीनों में सहमति लेने की व्यवस्था (Consent Managers) शुरू करनी है। अंत में, 18 महीने पूरे होने पर सभी नियमों का पूर्ण पालन करना होगा, जैसे डेटा की जाँच करना, सही तरीके से सहमति लेना और डेटा चोरी होने पर सूचना देना।
इस रिपोर्ट में 14 एआई प्लेटफॉर्म्स का विश्लेषण किया गया है, जिनका उपयोग भारत में बच्चे करते हैं। प्रत्येक प्लेटफॉर्म को 14 अलग-अलग नियमों पर जाँचा गया। कुल 196 जाँचों में से 71% मामलों में नियमों का पालन नहीं हुआ, 16% में आंशिक पालन हुआ और केवल 13% में ही पूर्ण अनुपालन पाया गया।
इन नतीजों से स्पष्ट होता है कि एआई प्लेटफॉर्म्स की कार्यप्रणाली और भारत में बच्चों के डेटा से जुड़े कानूनों के बीच एक बड़ा अंतर है। अधिकांश प्लेटफॉर्म अभिभावकीय सहमति प्राप्त करने, बच्चों की गतिविधियों की निगरानी पर नियंत्रण तथा बच्चों की सुरक्षा जैसे महत्वपूर्ण नियमों का पालन नहीं कर रहे हैं। शिक्षा और डिजिटल दुनिया में एआई का उपयोग तेजी से बढ़ रहा है, लेकिन नियमों का पालन उसी गति से नहीं हो रहा, जिससे बच्चों के लिए जोखिम बढ़ गया है।
मुख्य निष्कर्ष (Core Findings)
अध्ययन में सभी प्लेटफॉर्म्स पर कुछ सामान्य कमियाँ बार-बार सामने आईं:
1. अभिभावकीय सहमति का अपर्याप्त प्रावधान
अधिकांश प्लेटफॉर्म अभिभावकों की सहमति उचित तरीके से प्राप्त नहीं करते। कई मामलों में प्लेटफॉर्म उपयोगकर्ता द्वारा दी गई जानकारी को सत्य मान लेते हैं या केवल ईमेल के माध्यम से सहमति प्राप्त कर लेते हैं, जो कानूनी दृष्टि से पर्याप्त नहीं है। विशेष रूप से बच्चों के संदर्भ में, सहमति प्राप्त करने के लिए एक विश्वसनीय और सत्यापन योग्य तंत्र आवश्यक है।
2. प्लेटफॉर्म की कार्यप्रणाली और कानून के बीच टकराव
कई प्लेटफॉर्म बच्चों की गतिविधियों को ट्रैक करते हैं और उसी आधार पर उन्हें व्यक्तिगत सुझाव (जैसे क्या देखें, क्या पढ़ें, या आगे क्या करें) प्रदान करते हैं। यह उनकी सेवा का एक महत्वपूर्ण हिस्सा है। हालांकि, कानून के अनुसार बच्चों की इस प्रकार निगरानी करना प्रतिबंधित है, जिससे प्लेटफॉर्म की कार्यप्रणाली और कानूनी प्रावधानों के बीच स्पष्ट टकराव उत्पन्न होता है।
3. आयु-सीमा के निर्धारण में असंगति
कानून के अनुसार 18 वर्ष से कम आयु का प्रत्येक व्यक्ति बच्चा माना जाता है। इसके विपरीत, अधिकांश प्लेटफॉर्म 13 वर्ष से अधिक आयु के उपयोगकर्ताओं को वयस्क के रूप में मानते हैं और उन्हें समान अधिकार प्रदान करते हैं। इससे 13 से 17 वर्ष आयु वर्ग के बच्चे कानूनी सुरक्षा से वंचित रह जाते हैं, जो एक गंभीर चिंता का विषय है।
4. विभिन्न प्लेटफॉर्म्स के बीच असमान अनुपालन
विभिन्न प्रकार के प्लेटफॉर्म्स में अनुपालन के स्तर में स्पष्ट अंतर पाया गया। सोशल मीडिया और सामान्य एआई प्लेटफॉर्म्स में सबसे अधिक कमियाँ देखी गईं। शैक्षणिक प्लेटफॉर्म अपेक्षाकृत बेहतर प्रदर्शन करते हैं, हालांकि वे भी पूर्णतः अनुपालन सुनिश्चित नहीं कर पाए हैं। सरकारी प्लेटफॉर्म्स में जोखिम अपेक्षाकृत कम है, किंतु वे भी सभी प्रावधानों का पूर्ण पालन नहीं करते।
समग्र जोखिम परिदृश्य (Risk Landscape)
यह रिपोर्ट संकेत देती है कि वर्तमान स्थिति अत्यंत गंभीर है। विश्लेषित 14 प्लेटफॉर्म्स में से 10 प्लेटफॉर्म उच्च या अत्यधिक जोखिम की श्रेणी में आते हैं, जो दर्शाता है कि अधिकांश प्लेटफॉर्म बच्चों के डेटा संरक्षण के संदर्भ में गंभीर रूप से विफल हैं।
सबसे अधिक चिंताजनक तथ्य यह है कि जिन प्लेटफॉर्म्स का उपयोग बच्चों द्वारा सबसे अधिक किया जाता है, वही उच्चतम जोखिम भी प्रस्तुत करते हैं। इससे जोखिम का दायरा और अधिक व्यापक हो जाता है, क्योंकि इसका प्रभाव बड़ी संख्या में बच्चों पर पड़ता है।
इसके अतिरिक्त, कई कमियाँ लगभग सभी प्लेटफॉर्म्स में समान रूप से पाई गईं, जैसे अभिभावकीय सहमति प्राप्त करने की प्रक्रिया, सहमति वापस लेने की व्यवस्था तथा बच्चों की गतिविधियों की ट्रैकिंग। यह दर्शाता है कि यह समस्या केवल कुछ विशिष्ट प्लेटफॉर्म्स तक सीमित नहीं है, बल्कि व्यापक रूप से डिजिटल पारिस्थितिकी तंत्र में निहित है।
गैर-अनुपालन के प्रमुख क्षेत्र (Critical Areas of Non-Compliance)
अध्ययन में पाँच ऐसे प्रमुख क्षेत्र पहचाने गए हैं, जहाँ बार-बार और गंभीर कमियाँ पाई गई हैं:
- अभिभावकीय सहमति का अपर्याप्त प्रबंधन
अधिकांश प्लेटफॉर्म स्वयं-घोषणा (self-declaration) या ईमेल के माध्यम से प्राप्त सहमति को पर्याप्त मान लेते हैं। हालांकि, कानून के अनुसार सहमति एक सत्यापन योग्य और विश्वसनीय प्रक्रिया के माध्यम से प्राप्त की जानी चाहिए, विशेषकर जब बात बच्चों की हो। - सहमति वापस लेने की जटिल प्रक्रिया
अभिभावकों के लिए सहमति वापस लेने की प्रक्रिया अत्यधिक जटिल और अस्पष्ट है। कई मामलों में सहमति वापस लेने के बाद भी बच्चों का डेटा पूर्ण रूप से हटाया नहीं जाता, जो कानून का स्पष्ट उल्लंघन है। - शिकायत निवारण तंत्र की कमजोरी
प्लेटफॉर्म्स की शिकायत निवारण प्रणाली सामान्य और अपर्याप्त है, जो भारतीय कानून की आवश्यकताओं को पूरा नहीं करती। इसके परिणामस्वरूप अभिभावक अपने अधिकारों का प्रभावी ढंग से उपयोग नहीं कर पाते। - डेटा साझाकरण में पारदर्शिता की कमी
बच्चों का डेटा विभिन्न तृतीय पक्षों, जैसे क्लाउड सेवा प्रदाताओं और विज्ञापन कंपनियों, के साथ साझा किया जाता है। हालांकि, इसके संबंध में स्पष्ट और पारदर्शी जानकारी उपलब्ध नहीं कराई जाती, और इसे नियंत्रित करने के लिए कोई सरल तंत्र भी मौजूद नहीं है। - आयु-सीमा निर्धारण में असंगति
13 से 17 वर्ष आयु वर्ग के बच्चों को वयस्क के रूप में मानकर उन्हें कानूनी सुरक्षा से वंचित किया जाता है, जो DPDP अधिनियम के उद्देश्य के प्रतिकूल है।
उभरते जोखिमों का परिदृश्य (Emerging Risks)
मौजूदा कमियों के अतिरिक्त, बच्चों की डिजिटल दुनिया में एआई के बढ़ते उपयोग के साथ कई नए जोखिम भी उभरकर सामने आ रहे हैं:
- भ्रामक या पक्षपातपूर्ण जानकारी का जोखिम
एआई सिस्टम कभी-कभी गलत, पक्षपातपूर्ण या संदर्भहीन जानकारी प्रदान कर सकते हैं। बच्चे इन उत्तरों को सत्य मान लेते हैं, जिससे उनकी सीखने की प्रक्रिया और आलोचनात्मक सोच पर नकारात्मक प्रभाव पड़ सकता है। - बायोमेट्रिक और संवेदनशील डेटा का बढ़ता संग्रह
कई प्लेटफॉर्म अब बच्चों की आवाज, चेहरे और अन्य संवेदनशील डेटा को एकत्रित कर रहे हैं। अभिभावकीय सहमति के अभाव में इस प्रकार का डेटा संग्रह गंभीर गोपनीयता जोखिम उत्पन्न करता है। - स्थायी डिजिटल प्रोफाइलिंग का खतरा
निरंतर ट्रैकिंग के कारण बच्चों की गतिविधियों, व्यवहार और प्राथमिकताओं का दीर्घकालिक डिजिटल रिकॉर्ड तैयार होता जाता है, जो भविष्य में उनके अवसरों और निर्णयों को प्रभावित कर सकता है। - एआई पर अत्यधिक निर्भरता
शैक्षणिक और दैनिक कार्यों में एआई पर बढ़ती निर्भरता बच्चों की स्वतंत्र सोच, समझ और समस्या-समाधान क्षमता को कमजोर कर सकती है। - तकनीकी प्रगति और नियामकीय ढांचे के बीच अंतर
तकनीक तीव्र गति से विकसित हो रही है, जबकि कानून और उसका प्रभावी क्रियान्वयन अपेक्षाकृत धीमा है। इस अंतर के कारण बच्चों की सुरक्षा में निरंतर चुनौतियाँ बनी रहती हैं।
नीतिगत निहितार्थ (Policy Implications)
- भारत का डेटा संरक्षण बोर्ड (Data Protection Board of India) सभी पहचाने गए एआई डेटा फिड्युशियरी (AI Data Fiduciaries) को प्लेटफॉर्म-विशिष्ट अनुपालन नोटिस जारी करे, जिनमें तत्काल सुधारात्मक उपाय शुरू करने और DPDP अधिनियम तथा आगामी नियमों के अनुरूप समयबद्ध तरीके से पूर्ण अनुपालन सुनिश्चित करने का निर्देश हो। बच्चों के डेटा के प्रसंस्करण में किसी भी प्रकार का विचलन नियामकीय जांच के दायरे में लाया जाना चाहिए, और संक्रमणकालीन अवधि (transitional phase) को गैर-अनुपालन के औचित्य के रूप में स्वीकार नहीं किया जाना चाहिए।
- सभी प्लेटफॉर्म्स, चाहे वे घरेलू हों या अंतरराष्ट्रीय, को चरणबद्ध लेकिन बाध्यकारी तरीके से सत्यापन योग्य अभिभावकीय सहमति तंत्र, आयु-उपयुक्त डिजाइन मानक, तथा अनुपातिक आयु सत्यापन प्रणालियाँ लागू करनी चाहिए। भारत की 18 वर्ष की आयु सीमा के अनुरूप तकनीकी रूप से लागू आयु-नियंत्रण (age-gating) अपनाया जाना आवश्यक है। स्वयं-घोषणा (self-declaration) आधारित तंत्र को अनुपालन के रूप में स्वीकार नहीं किया जाना चाहिए। निर्धारित कार्यान्वयन ढांचे से आगे किसी भी प्रकार की देरी, कमजोर अनुपालन या केवल औपचारिक अनुपालन की अनुमति नहीं दी जानी चाहिए।
- सरकारी या सरकार से ससंबंधित प्लेटफॉर्म्स, जैसे SATHEE और DIKSHA, को आदर्श अनुपालन मॉडल के रूप में कार्य करना चाहिए और उन पर उन्नत स्तर की निगरानी लागू की जानी चाहिए। इसमें अनिवार्य खुलासे (disclosures), समय-समय पर अनुपालन रिपोर्टिंग, तथा स्पष्ट प्रगति मानकों का निर्धारण शामिल होना चाहिए। आयु सत्यापन और अभिभावकीय सहमति से संबंधित कमियों को दूर करने के लिए तत्काल सुधारात्मक कदम उठाए जाने चाहिए, और अपेक्षित मानकों को पूरा न करने की स्थिति में समीक्षा तथा आवश्यक हस्तक्षेप सुनिश्चित किया जाना चाहिए।
- प्लेटफॉर्म्स को क्षेत्रीय भाषाओं में इंटरफेस और बच्चों के लिए विशेष रूप से तैयार गोपनीयता प्रकटीकरण (privacy disclosures) उपलब्ध कराना अनिवार्य किया जाना चाहिए, ताकि सहमति वास्तव में सूचित और सार्थक हो सके। ऐसे उपायों का अभाव एक गंभीर अनुपालन कमी माना जाना चाहिए, जो उपयोगकर्ता की सहमति की वैधता को प्रभावित करता है।
- डेटा संरक्षण बोर्ड को एआई प्लेटफॉर्म्स और नाबालिगों के डेटा प्रसंस्करण पर क्षेत्र-विशिष्ट दिशा-निर्देश जारी करने चाहिए, जबकि अंतरराष्ट्रीय प्लेटफॉर्म्स को भारत-केंद्रित अनुपालन रोडमैप प्रस्तुत करने चाहिए, जिनमें स्पष्ट समय-सीमाएँ निर्धारित हों। सरकार को एक केंद्रीकृत सार्वजनिक अनुपालन डैशबोर्ड स्थापित करना चाहिए, जिससे प्लेटफॉर्म्स की तैयारी और बाल डेटा संरक्षण मानकों के पालन की निगरानी की जा सके। साथ ही, अभिभावकों, विशेष रूप से युवा और पहली बार डिजिटल माध्यम का उपयोग करने वाले अभिभावकों, के लिए लक्षित जागरूकता अभियान चलाए जाने चाहिए। शैक्षणिक अपवाद (educational exemption) की व्याख्या संकीर्ण और सख्त रूप से की जानी चाहिए, और धारा 9(2) के अंतर्गत प्रतिबंध को पूर्ण सीमा (absolute boundary) के रूप में लागू किया जाना चाहिए। किसी भी अपवाद की व्याख्या इस प्रकार नहीं की जानी चाहिए कि वह बच्चों के हितों के प्रतिकूल एआई-आधारित प्रसंस्करण की अनुमति दे। मई 2027 तक पूर्ण अनुपालन सुनिश्चित करने के लिए एक सख्त और निरंतर निगरानी वाला दृष्टिकोण अपनाया जाना आवश्यक है।
- प्लेटफॉर्म्स को बच्चों के लिए संवेदनशील (child-sensitive) शिकायत निवारण व्यवस्था स्थापित करना चाहिए और उनके अनुपालन की पुष्टि के लिए समय-समय पर स्वतंत्र ऑडिट कराए जाने चाहिए। बच्चों के डेटा का संग्रह और प्रसंस्करण केवल उसी सीमा तक सीमित होना चाहिए, जो निर्धारित उद्देश्य की पूर्ति के लिए आवश्यक हो।