Tandis que l'Inde se prépare à présider le Sommet sur l'IA le mois prochain, les appels se multiplient pour que l'éthique de l'IA passe d'idées abstraites à des normes pratiques et exécutoires. Celles-ci doivent être ancrées dans des principes de droits humains comme la vie privée, l'égalité, la non-discrimination, la procédure régulière et la dignité.
L'éthique de l'IA, souvent discutée en termes vagues, nécessite une définition précise alors que l'Inde se prépare à diriger le Sommet sur l'IA le mois prochain, argue Sushant Kumar dans son article d'opinion. Il insiste pour l'ancrer dans des droits humains exécutoires, s'inspirant de cadres comme les Principes d'éthique de l'IA de l'UNESCO et le Rapport sur le développement humain 2025 du PNUD. Cette approche protège contre les abus des entreprises et de l'État, particulièrement dans l'aide sociale, la police et la surveillance. L'éthique doit refléter les contextes uniques de l'Inde, incluant les dynamiques de castes, le travail genré, la diversité linguistique, les clivages ruraux-urbains et les vulnérabilités numériques. Des audits intersectionnels sont proposés pour évaluer les préjudices cumulés subis par des groupes comme les femmes dalits, les travailleurs migrants, la jeunesse adivasi, les personnes handicapées et les minorités linguistiques, en abordant comment les biais s'entrecroisent plutôt qu'en isolation. La transparence exige que les systèmes d'IA incluent des fiches modèles accessibles au public —comme des étiquettes nutritionnelles— détaillant les données d'entraînement, les biais, les limites et les contacts pour plaintes, contrebalançant l'emballement dans les déploiements publics. Les garanties essentielles incluent le consentement, le contrôle communautaire des données, le partage équitable de la valeur et des protections contre les pratiques extractives. Des trusts de données communautaires, similaires aux organismes de gestion des ressources, pourraient gérer les données au bénéfice collectif, empêchant l'Inde de devenir une 'colonie de données'. Les mesures réparatrices sont cruciales : responsabilité claire pour les dommages, comme lorsque des erreurs de reconnaissance faciale refusent des rations aux personnes âgées ou handicapées, avec responsabilité primaire sur les autorités déployantes et secondaire sur les fournisseurs. Systèmes de plaintes indépendants et supervision humaine obligatoire dans les domaines à haut risque comme la police et la médecine assurent l'exécutabilité. Les gens doivent comprendre les décisions d'IA qui les concernent et avoir recours pour les contester. En défendant ces principes fondés sur les droits, l'Inde peut réaliser son potentiel de leader mondial en gouvernance de l'IA.