Loin d’être un sujet épuisé, la protection des données personnelles s’inscrira, en 2021, au cœur des stratégies data et d’innovation des entreprises.

Des restrictions au « forum shopping »

L’année 2021 verra naître de nouvelles actions des autorités européennes de protection des données afin de limiter le « forum shopping », à savoir la possibilité pour les entreprises de choisir d’implanter les établissements traitant leurs données dans des juridictions réputées plus conciliantes comme le Luxembourg ou l’Irlande. A l’image de la CNIL, les autorités de protection des données des autres Etats membres continueront à utiliser la directive ePrivacy ou des failles du RGPD pour s’assurer la possibilité de sanctionner des entreprises, nonobstant le lieu d’établissement principal de ces dernières.

 

Des citoyens plus conscients des enjeux

Selon le EY Global Consumer Privacy Survey*, 54 % des consommateurs sont plus sensibilisés à la protection des données personnelles depuis la pandémie.
Cette prise de conscience ne fera que croitre, notamment grâce à Apple et sa nouvelle fonctionnalité de confidentialité intégrée dans la prochaine version iOS 14 et qui commencera à obliger les développeurs à demander la permission de suivre les utilisateurs de leurs applications à des fins de ciblage publicitaire. Cette nouvelle version sortira ce printemps, pour l’ensemble des utilisateurs, selon une annonce faite par la firme américaine aujourd’hui, à l’occasion de la journée mondiale de la protection des données.
* sondage mondial sur la protection de la vie privée des consommateurs publié en novembre 2020.

De plus grandes exigences dans la lutte contre les biais algorithmiques

Un biais algorithmique se produit lorsque les données utilisées pour entraîner un algorithme de machine learning ou une intelligence artificielle reflètent les valeurs implicites des humains impliqués dans la collecte, la sélection, ou l’utilisation de ces données conduisant à des discriminations. Cela a, par exemple, été le cas en 2015 quand Amazon a cessé l’utilisation d’un algorithme d’évaluation de CV qui discriminait fortement les candidatures féminines.
Avec la mise en place des premiers frameworks d’audit des IA par les autorités de protection des données européennes, il faut s’attendre à un renforcement des obligations de transparence des algorithmes, d’explicabilité de leurs décisions et de lutte contre les discriminations qui peuvent en résulter.

D’une logique déclarative et « cléricale » dans l’urgence de l’entrée en vigueur du RGPD en 2018, c’est bien une pleine intégration au cœur des enjeux métiers et de l’innovation ainsi qu’une véritable stratégie de maîtrise et de valorisation des données qui sont aujourd’hui attendues des entreprises.

Auteur : Lionel CAPEL, DPO externe au sein du Pôle Data et Compliance de Partenor Digital