banner

Blog

Apr 28, 2023

Sommes-nous sûrs de vouloir une maison intelligente et des gadgets plus intelligents ?

15 mai 2023 par Stacey Higginbotham 4 commentaires

Cette histoire a été initialement publiée le vendredi 12 mai, dans mon bulletin hebdomadaire. Pour recevoir la newsletter, inscrivez-vous ici.

Apple veut créer un coach de santé capable de suivre les signes vitaux des gens ainsi que leurs émotions. Pendant ce temps, Amazon teste une version plus intelligente de son robot Astro, notamment en lui donnant la possibilité de suivre et de se souvenir de ce qui se passe dans les maisons des gens afin de mieux les surveiller.

Sur le Web lui-même, les gens prennent conscience que leurs discussions avec ChatGPT/IA génératives pourraient accidentellement divulguer des informations privées ou même concurrentielles. Même les employés d'Amazon étaient préoccupés par les implications sur la vie privée des projets de l'entreprise de créer un coach de santé. Sur la base de tout cela, je dois poser la question : voulons-nous vraiment les appareils et services plus intelligents que les entreprises créent ?

J'ai d'abord été enthousiasmé par le potentiel de l'Internet des objets pour ajouter la détection et la connectivité aux objets et lieux du quotidien. Avec les informations qu'ils recueillent et l'accès au cloud computing bon marché pour l'analyse des données, j'espérais que nous rendrions l'invisible visible. Plus précisément, j'avais espéré que nous prendrions certaines des externalités invisibles associées à la pollution ou aux processus industriels et apporterions des changements positifs.

Ce serait peut-être une ONG tenant une usine responsable de la pollution de l'air, ou une ville promulguant différentes lois de zonage pour empêcher les gens de vivre au-dessus de zones toxiques. Peut-être qu'une usine utiliserait les données qu'elle recueille pour réduire la quantité de matières nocives dans son produit ou pour fabriquer un nouveau produit qui dure plus longtemps.

Bien que je vois un peu ce dernier, en particulier lorsqu'il s'agit de réduire les émissions de carbone ou de réduire les déchets, je ne vois pas grand-chose lié à l'utilisation des données des capteurs pour tenir l'entreprise privée responsable. L'IdO rend l'invisible visible, mais jusqu'à présent, il le fait d'une manière qui ne profite qu'au résultat net.

Et en ce qui concerne la maison intelligente et les consommateurs, je dois demander : voulons-nous vraiment rendre pleinement visible ce que nous gardons actuellement invisible pour les entreprises technologiques, les courtiers en données, ainsi que les entreprises et les gouvernements qui achètent chez eux ?

Avec le battage médiatique autour de l'IA générative telle que ChatGPT, les grandes entreprises technologiques intègrent leurs propres grands modèles de langage ou d'autres modèles génératifs dans leurs produits. Cette semaine à Google I/O, la société de recherche a présenté l'utilisation de nouveaux modèles dans la recherche, la génération d'images, la sécurité et la médecine, ainsi qu'un moyen d'aider à "démarrer" la créativité.

Amazon a parlé d'améliorer Alexa avec un nouveau grand modèle de langage, et Business Insider rapporte qu'il a un projet nommé Burnham qui donnera à son robot Astro la capacité de se souvenir des choses et de répondre aux questions. Mais est-ce que je veux un petit robot armé d'une caméra patrouillant chez moi à la recherche de problèmes ?

Amazon le présente comme un moyen de s'assurer que le poêle est éteint, ou un moyen de voir des choses comme du verre brisé et de vous faire savoir que quelque chose ne va pas. Mais ce sera également un moyen pour les familles de surveiller les gens à la maison et, selon les fonctionnalités de confidentialité (il devrait fournir un stockage local et un cryptage des données cloud), un moyen pour les entreprises d'obtenir beaucoup plus d'informations sur la vie à la maison que nous pouvons commencer à imaginer. Ces informations peuvent sembler bénignes, comme le type de papier toilette que vous utilisez ou le nombre de chats dans votre maison, mais les entreprises technologiques peuvent monétiser ces informations de bien des façons, et aucune de ces façons n'a à cœur les avantages pour le consommateur.

Par exemple, lorsque les utilisateurs ont interrogé Alexa sur le yoga, Amazon leur a proposé des publicités pour son produit portable Halo, en supposant que la personne était intéressée par le fitness. Avec quelque chose comme un Astro plus intelligent, le consommateur n'a pas à demander activement à un appareil dont il sait qu'il est connecté au cloud à propos d'un tapis de yoga ; le robot peut parcourir la maison, noter une collection de poids ou d'équipements de fitness, puis envoyer à Amazon les données qui conduisent à l'étiquetage du profil démographique des consommateurs en matière de santé et de bien-être.

Un exemple plus troublant est la façon dont certaines des données des utilisateurs provenant d'appareils intelligents sont vendues à des courtiers en données. Aujourd'hui, le grand remue-ménage porte sur les données de localisation des téléphones portables, en particulier à la suite de la criminalisation des soins de santé des femmes par plusieurs États. En août, la Federal Trade Commission (FTC) a poursuivi une société appelée Kochava pour la vente de données de localisation dans le cadre d'un effort global visant à contrôler la collecte de données sur les consommateurs.

La semaine dernière, un juge fédéral de l'Idaho a renvoyé la plainte de la FTC, arguant que l'agence n'avait pas prouvé que la collecte et la vente des données avaient causé un "préjudice substantiel" aux consommateurs. Le juge a convenu que la collecte et la vente de ces données personnelles avaient le potentiel de causer un préjudice, mais avait besoin que la FTC fournisse des faits supplémentaires prouvant le préjudice.

C'est à la fois un coup dur et une opportunité. Pour beaucoup, il sera difficile de prouver un préjudice substantiel résultant d'une perte de vie privée. Bien que nous verrons sans aucun doute quelques cas où la vente de données sur les consommateurs entraîne un préjudice substantiel, comme une arrestation après un avortement ou une blessure réelle d'un partenaire violent ou d'un harceleur, la loi ne reconnaît pas les méfaits rampants d'une vie sous surveillance constante et invisible. Mais ça pourrait.

Actuellement, cependant, lorsque nous ne comprenons pas pleinement les risques liés à l'ajout de nos données à certains des modèles les plus récents, et que les entreprises souhaitent ajouter plus de caméras et d'autres appareils à nos maisons qui visent à nous "comprendre" ou à nous coacher, c'est un risque de nous rendre si visibles. Mais c'est exactement ce que nous allons faire avec certains de ces nouveaux gadgets et services.

Autant j'aime la technologie et la commodité de certains de mes appareils intelligents, autant la combinaison de services plus intelligents, plus de caméras, plus de capteurs et une IA « plus intelligente » me préoccupe. Je pense que cela devrait vous concerner aussi.

Vous voulez les dernières nouvelles et analyses IoT ? Recevez ma newsletter dans votre boîte de réception tous les vendredis.

Classé sous :Analyse, En vedette Étiqueté avec :Amazon, Apple, ChatGPT, google, maison intelligente

Entrez votre adresse e-mail pour recevoir les notifications de nouveaux articles par e-mail.

Adresse e-mail

S'abonner

PARTAGER