Utilisation responsable de l’IA

La vidéo sécurité doit être utilisée de manière responsable, et il est donc important d’en réguler certaines technologies, comme la reconnaissance faciale. Mais lors de l’évaluation de ces technologies, cet effort réglementaire ne doit pas jeter l’IA et ses avantages avec l’eau du bain.

Tout au long de l’histoire, les progrès technologiques ont fait l’objet de bonnes et de mauvaises utilisations. En la matière, l’ordinateur est un excellent exemple. Une fois connecté à Internet, un simple PC ouvre le monde entier à ses utilisateurs, en leur permettant de communiquer de manière simple et économique avec leurs amis et leur famille situés de l’autre côté du globe.

Mais entre de mauvaises mains, ce même ordinateur permet aux hackers d’accéder à des réseaux mal protégés d’entreprises ou de gouvernements, de voler des informations sensibles et de les revendre au plus offrant.

C’est une bonne chose pour nous d’évaluer en permanence les technologies disponibles, en réfléchissant à la fois aux avantages qu’elles nous procurent mais aussi à leur détournement potentiel à des fins malveillantes. À l’heure actuelle, notre société s’inquiète de plus en plus des technologies qui, si utilisées de manière irresponsable, peuvent violer notre vie privée et saper les libertés individuelles. Cela inclut certaines technologies basées sur l’intelligence artificielle (IA), et plus précisément la reconnaissance faciale. Si de nombreux services de police utilisent déjà la reconnaissance faciale dans toute l’Europe, des défis juridiques commencent à apparaitre.

Trouver un équilibre

La reconnaissance faciale est un des nombreux exemples d’application de l’IA aux technologies vidéo. Employée dans les systèmes vidéo, l’IA peut améliorer la qualité des images, en retirer le bruit ou éliminer les fausses alarmes. Elle permet ainsi aux opérateurs de se concentrer sur les événements et les incidents importants. Utilisée de cette manière, l’IA fait gagner du temps, réduit les coûts, améliore l’efficience et la sécurité.

En parallèle, la Commission européenne propose le tout premier cadre juridique sur l’IA pour fournir aux personnes en charge de son développement, de son déploiement et de son exploitation des exigences et obligations pour tous les cas d’utilisation. Au cœur de ce cadre, l’identification des différents niveaux de risque associés à chaque application de l’IA.

La Commission souhaite également que cette régulation « renforce l’adoption de l’IA, l’investissement et l’innovation dans l’ensemble de l’UE. » Il est donc nécessaire de trouver un équilibre entre la régulation appliquée à l’utilisation de cette technologie, pour veiller à ce qu’elle ne nuise pas aux droits individuels, et l’encouragement des innovations permettant de multiplier les applications où l’IA apporte de réels avantages.

Les fabricants responsables, comme Hanwha Techwin, ont l’habitude de trouver cet équilibre. Pour être clair, Hanwha propose déjà une solution de reconnaissance faciale en Europe. En tant que société coréenne, conforme à la loi NDAA, nous avons un contrôle total sur notre chaîne d’approvisionnement, et une solide expérience en cybersécurité. Nous défendons fortement l’utilisation responsable des technologies de vidéo sécurité.

Une juste place pour l’IA

Nous sommes en faveur d’une réglementation adaptée et d’un débat public sur l’utilisation responsable des technologies comme l’IA. En parallèle à cela néanmoins, il est important de reconnaitre et d’encourager le rôle important que joue l’IA pour veiller à ce que nos espaces publics soient opérationnels, sûrs et efficients.

Hanwha compte par exemple parmi les pionniers de l’IA embarquée dans les caméras de vidéo sécurité pour résoudre les problèmes que la police rencontre fréquemment lorsqu’elle enquête sur un crime. Cette IA est exploitée sans avoir d’impact sur les libertés individuelles.

L’IA peut aider les officiers de police à localiser rapidement une personne disparue en examinant une quantité massive de séquences vidéo et en classant les images. Elle permet d’extraire uniquement celles comportant certains attributs, comme des vêtements de la même couleur que ceux portés par l’individu recherché, la présence ou non d’un chapeau ou d’un sac, ou même les personnes se déplaçant dans une direction spécifique. Ce qui aurait pris des jours de travail par le passé peut être fait en quelques heures, libérant du temps pour que les officiers travaillent sur l’enquête plutôt que de passer des heures à consulter les vidéos. Un gain d’efficacité rendu possible par l’IA

Faire ce qui est juste

Il est crucial de souligner que cette utilisation de l’IA n’a aucune implication sur la vie privée : ces systèmes sont formés à se concentrer uniquement sur les objets et les attributs plutôt que sur l’identification des personnes par leurs caractéristiques faciales.

En outre, l’IA permet de protéger l’identité des personnes capturées dans l’espace public en censurant les visages de toutes les personnes à l’exception de la personne disparue, de sorte à les rendre impossibles à identifier. Seul le personnel de la police et la justice peut accéder aux vidéos non censurées.

Compte tenu du merveilleux potentiel de l’IA, il serait extrêmement dommage que, lors de l’évaluation des technologies présentant un risque pour la vie privée, cet effort réglementaire ne jette l’IA et ses avantages avec l’eau du bain.