WTF est un motif sombre? – TechCrunch

Advertisements:

Si vous êtes un concepteur UX, vous n'aurez pas besoin de cet article pour vous parler de la conception de motifs sombres. Mais peut-être avez-vous choisi d'exploiter ici le désir de réaffirmer ce que vous savez déjà – de vous sentir bien dans votre domaine professionnel.

Ou est-ce que votre conscience vous a piquée? Continuez, vous pouvez être honnête … ou, bien, pouvez-vous?

Une troisième possibilité: Peut-être une application que vous utilisiez a présenté cet article d'une manière qui vous a persuadé de l'exploiter plutôt que sur un autre contenu numérique . Et ce sont ces sortes de petits coups imperceptibles – quoi remarquer, où tapoter / cliquer – dont nous parlons quand nous parlons de la conception de motifs sombres.

Mais pas seulement cela. L'obscurité de entre en jeu parce que les choix de conception d'UX sont sélectionnés pour être délibérément trompeurs. Pour pousser l'utilisateur à abandonner plus que ce qu'ils réalisent. Ou pour accepter des choses qu'ils ne feraient probablement pas s'ils comprenaient vraiment les décisions qu'ils étaient poussés à faire.

En clair, la conception sombre est une tromperie et une malhonnêteté par conception … Toujours assise confortablement

La technique, telle qu'elle est déployée en ligne aujourd'hui, se nourrit souvent et exploite le fait que les consommateurs surchargés de contenu lisent les documents qui leur sont présentés, surtout si cela semble terne et qu'ils sont en train d'essayer de faire autre chose – comme s'inscrire à un service, effectuer un achat, se rendre à quelque chose qu'ils veulent vraiment regarder, ou découvrir ce que leurs amis leur ont envoyé.

Le minutage manipulatoire est un élément clé de la conception sombre. En d'autres termes quand vous voyez une notification peut déterminer comment vous y répondez. Ou si vous le remarquez même. Les interruptions empilent généralement sur la surcharge cognitive – et la conception trompeuse les déploie pour rendre plus difficile pour un utilisateur de contrôler entièrement ses facultés pendant un moment clé de la décision.

Les schémas sombres utilisés pour obtenir le consentement pour collecter les données personnelles des utilisateurs. les données combinent souvent une interruption non désirée avec un chemin d'échappement intégré – offrant un moyen facile de se débarrasser du menu terne qui entrave ce que vous essayez réellement de faire.

Les boutons « d'accord et de continuation » aux couleurs vives sont une caractéristique récurrente de cette saveur de conception de modèle sombre. Ces panneaux accrocheurs apparaissent presque universellement à travers les flux de consentement – pour encourager les utilisateurs et non à lire ou contempler les termes et conditions d'un service, et donc pas pour comprendre ce qu'ils acceptent.

C'est le «consentement» de la porte dérobée éclaircie

Cela fonctionne parce que les humains sont paresseux face à des trucs ennuyeux et / ou complexes. Et parce que trop d'informations submerge facilement. La plupart des gens prendront le chemin de la moindre résistance. Surtout si elle est plaquée de façon rassurante pour eux sous forme de bouton-poussoir.

Dans le même temps, un motif sombre assurera que la désactivation – s'il y en a une – sera presque invisible; Le texte d'échelle de gris sur un fond gris est le choix habituel.

Quelques conceptions trompeuses incluent même un appel à l'action affiché sur le bouton coloré qu'ils veulent que vous pressiez – avec le texte qui dit quelque chose comme 'D'accord, semble bon!' De même, l'option d'exclusion la moins visible pourrait utiliser une suggestion négative pour impliquer que vous allez manquer quelque chose ou que vous risquez de faire de mauvaises choses en cliquant ici

L'horrible vérité est que les dessins trompeurs peuvent être terriblement faciles à peindre.

Là où il s'agit de T & C, c'est vraiment tirer sur un poisson dans un tonneau. Parce que les humains détestent être ennuyés ou confus et qu'il y a d'innombrables façons de prendre des décisions offensantes ou complexes – qu'il s'agisse de présenter des rames de légendaire impénétrable dans de minuscules lettres en niveaux de gris pour que personne ne les lise les gens cliquent sur 'ok'; déployer un phrasé intentionnellement déroutant et / ou une conception de bouton / bascule qui rend impossible à l'utilisateur d'être sûr de ce qui se passe et de ce qui est désactivé (et donc ce qui est exclu et ce qui est activé) ou même si opting out signifie réellement opter pour quelque chose vous ne voulez vraiment pas …

Le frottement est un autre outil clé de cet art sombre: par exemple, les conceptions qui nécessitent beaucoup plus de clics / taps et d'interactions si vous voulez vous exclure. Tels que basculer pour chaque transaction de partage de données – potentiellement courir à des centaines de contrôles individuels, un utilisateur doit appuyer sur vs seulement quelques robinets ou même un seul bouton pour accepter tout. La pesée est intentionnellement à sens unique. Et ce n'est pas en faveur du consommateur.

Des conceptions trompeuses peuvent aussi faire croire que l'exclusion n'est même pas possible. Par exemple, les utilisateurs optant par défaut pour partager leurs données et, s'ils tentent de trouver un moyen de se désengager, ils doivent trouver une alternative alternative difficile à repérer, puis ils doivent également faire défiler vers le bas de longues T & C pour trouver un

Facebook a utilisé cette technique pour effectuer un cambriolage de données majeur en reliant les comptes des utilisateurs de WhatsApp à des comptes Facebook en 2016. Malgré les affirmations antérieures selon lesquelles un tel revirement de confidentialité ne pourrait jamais avoir lieu. La grande majorité des utilisateurs de WhatsApp ne se sont probablement jamais rendu compte qu'ils pouvaient dire non – et encore moins compris les implications sur la vie privée de consentir à ce que leurs comptes soient liés.

Les sites de commerce électronique présentent parfois de manière suggestive un add-on il apparaît comme une partie obligatoire de la transaction. Tels que l'utilisation d'un bouton «continuer» de couleur vive lors d'un processus de vérification de vol, mais qui regroupe également automatiquement une assurance supplémentaire facultative, au lieu de demander clairement aux gens s'ils veulent l'acheter.

des cases à cocher permettant de jeter des objets à faible coût ou un petit don de bienfaisance dans un panier lorsqu'un utilisateur passe par le flux de sortie, ce qui signifie que de nombreux clients ne s'en apercevront qu'après l'achat.

Ils ont également été pris en utilisant un design trompeur pour augmenter les options plus chères, comme en masquant des vols moins chers et / ou en masquant les prix, il est donc plus difficile de déterminer quel est le choix le plus rentable

sont horriblement, horriblement commun dans le marketing par courriel. Comme un désabonnement UX qui vous oblige à cliquer sur un nombre ridicule de fois et continuer à réaffirmer que oui, vous voulez vraiment sortir.

Souvent, ces écrans supplémentaires sont conçus de manière trompeuse pour ressembler aux écrans de désabonnement réussis que les gens s'attendent à voir quand ils ont retiré le marketing. Mais si vous regardez de très près, avec des caractères typiquement minuscules, vous verrez qu'ils demandent toujours si vous voulez vous désabonner. L'astuce consiste à vous éviter de vous désinscrire en vous faisant croire que vous l'avez déjà fait.

Un autre modèle trompeur souvent utilisé pour manipuler les flux de consentement en ligne agit contre les utilisateurs en présentant quelques exemples biaisés de manière sélective – ce qui donne l'illusion d'un contexte utile autour d'une décision. Mais en réalité, il s'agit d'une tentative turbocompressée de manipuler l'utilisateur en présentant une vision désaxée qui ne constitue en aucun cas une image complète et équilibrée des conséquences du consentement.

Au mieux, c'est insensé. Plus simplement c'est trompeur et malhonnête.

Voici juste un exemple d'exemples sélectivement biaisés présentés lors d'un flux de consentement Facebook utilisé pour encourager les utilisateurs européens à activer sa technologie de reconnaissance faciale. Cliquer sur 'continuer' mène l'utilisateur à l'écran de décision – mais seulement après qu'on leur a montré cet interstitiel biaisé …

Facebook utilise aussi la manipulation émotionnelle ici, dans le libellé de ses exemples sélectifs, par jouer sur les peurs des gens (affirmer que sa technologie «vous protégera d'un étranger») et jouer sur le sens de la bonne volonté des gens (affirmer que votre consentement sera utile aux personnes malvoyantes) – essayer d'obtenir un accord en faisant peur aux autres

Vous ne voudriez pas ce genre de comportement émotionnellement manipulateur si un humain vous le faisait. Mais Facebook essaye souvent de manipuler les sentiments de ses utilisateurs pour les amener à se comporter comme ils le veulent.

Par exemple pour pousser les utilisateurs à poster plus de contenu – en générant un diaporama artificiel de « souvenirs » de votre profil et du profil d'un ami , puis vous suggérant de partager ce contenu non sollicité sur votre chronologie (en vous poussant à le faire parce que, bien, qu'est-ce que votre ami va penser si vous choisissez de ne pas le partager?). Bien sûr, cela sert ses intérêts commerciaux parce que plus de contenu posté sur Facebook génère plus d'engagement et donc plus de vues.

Ou – dans une dernière tentative pour empêcher une personne de supprimer son compte – Facebook a été connu pour utiliser les noms des photos de leurs amis Facebook pour réclamer telle ou telle personne vous « manqueront » si vous quittez le service. Donc, il est soudainement en train de confondre quitter Facebook en abandonnant vos amis.

Distraction est une autre technique de conception trompeuse déployée pour se faufiler plus de l'utilisateur qu'ils ne le réalisent. Par exemple, des dessins humoristiques à la recherche de mecs qui sont servis pour vous mettre en garde contre une marque, comme lorsqu'ils vous demandent périodiquement de revoir vos paramètres de confidentialité.

Encore une fois, Facebook utilise cette technique. Le look cartoony autour de son processus de révision de la vie privée est conçu pour vous rassurer de donner plus de données à l'entreprise.

Vous pourriez même soutenir que la marque entière de Google est un modèle sombre: Childishly coloré et sonne, il suggère quelque chose de sûr et amusant. Ludique même. Les sentiments qu'elle génère – et donc le travail qu'elle fait – n'ont aucun rapport avec les activités de l'entreprise: Surveillance et suivi des personnes pour vous persuader d'acheter des choses.

Autre exemple de conception de motifs sombres: les notifications qui apparaissent comme vous envisagez d'acheter un vol ou une chambre d'hôtel, disons, ou en regardant une paire de chaussures – qui vous invite à « dépêchez-vous! », car il n'y a que X nombre de sièges ou de paires à gauche

essayer de précipiter une transaction en faisant croire à un client potentiel qu'il n'a pas le temps d'y réfléchir ou de faire plus de recherches – et de contrecarrer ainsi la décision plus rationnelle et informée qu'il aurait pu prendre autrement.

Le botteur est il n'y a pas façon de savoir s'il n'y avait vraiment que deux sièges à ce prix. Tout comme les voitures fantômes qu'Uber a capturé dans son application – qu'il prétendait être à des fins d'illustration, plutôt que d'être des descriptions exactes des voitures disponibles pour la grêle – les internautes doivent faire confiance à ce qu'on leur dit être vraiment vrai.

Mais pourquoi devriez-vous faire confiance à des entreprises qui tentent délibérément de vous induire en erreur?

Les modèles sombres pointent vers un vide éthique

être bagué un peu tard. Wikipedia attribue à Harry Brignull, concepteur d'UX, la monnaie, en 2010, lorsqu'il a enregistré un site web (darkpatterns.org) pour en faire la chronique et qualifier la pratique d'immorale

« Les modèles sombres ont tendance à bien se comporter en A / B et des tests multivariés simplement parce qu'un design qui incite les utilisateurs à faire quelque chose est susceptible de réaliser plus de conversions que celui qui permet aux utilisateurs de prendre une décision éclairée », écrit Brignull en 2011 – soulignant exactement pourquoi les concepteurs de sites Web étaient trop rusés: Superficiellement ça marche . La colère et la méfiance viendront plus tard.

Près d'une décennie plus tard, le site Internet de Brignull continue de vanter le design trompeur. Alors peut-être qu'il devrait renommer cette page «la salle de éternelle honte». (Et oui, avant de le signaler, vous pouvez en effet trouver des marques appartenant à l'entité mère de TechCrunch, Oath, parmi celles qui sont appelées à concevoir des modèles sombres … Il est juste de dire que les flux de consentement sont honteusement répandus parmi les entités médiatiques. viser à monétiser du contenu gratuit avec un ciblage publicitaire assoiffé de données.)

Bien sûr, le concept sous-jacent du design trompeur a des racines qui traversent l'histoire humaine. Voir, par exemple, le cheval de Troie original. (Une sorte de motif sombre «inversé» – étant donné que les Grecs construisaient un spectacle intentionnellement accrocheur pour piquer la curiosité des Troyens, les obligeant à baisser leur garde et à l'emmener dans la ville fortifiée, permettant ainsi le piège mortel.)

Fondamentalement, plus les humains ont construit d'outils, plus ils ont trouvé de possibilités de tirer la laine au-dessus des yeux des autres. L'Internet vient en quelque sorte surcharger la pratique et amplifier les préoccupations éthiques associées, car la tromperie peut être réalisée à distance et à grande échelle. Ici, les gens qui vous mentent n'ont même pas à risquer un soupçon de culpabilité personnelle parce qu'ils n'ont pas à regarder dans les yeux pendant qu'ils le font.

De nos jours, tomber dans le piège de la conception sombre signifie le plus souvent Nous avons involontairement accepté que vos données personnelles soient récoltées et partagées avec un très grand nombre de courtiers de données qui profitent des informations des gens de trading en arrière-plan – sans préciser clairement ce qu'ils font, ni ce qu'ils font exactement pour transformer vos données en leur or. Donc, oui, vous payez pour des services gratuits aux consommateurs avec votre vie privée.

Un autre aspect de la conception de modèles sombres a été incité à encourager les utilisateurs d'Internet à former des habitudes addictives attachées aux applications et aux services. Souvent, ce type d'addiction formant des motifs sombres est moins évident visuellement sur un écran – à moins que vous ne commenciez à compter le nombre de notifications que vous êtes en train de recevoir, ou le chantage émotionnel que vous ressentez pour envoyer un message pour un 'amiversaire', ou ne manquez pas votre tour dans un «jeu de strie».

Voici l'école de design de Nir Eyal. Ce qui a donné lieu à un contrecoup ces derniers temps, les grandes technologies étant maintenant en concurrence – au moins superficiellement – pour offrir des outils dits de «bien-être numérique» afin de permettre aux utilisateurs de se décrocher. Pourtant, ce sont des outils dont les plates-formes sont encore très contrôlées. Donc, il n'y a aucune chance que vous soyez encouragé à abandonner complètement leur service.

La conception de modèle sombre peut également vous coûter de l'argent directement. Par exemple, si vous vous trompez en vous inscrivant ou en continuant un abonnement, vous ne le souhaitiez pas vraiment. Bien que ces tromperies flagrantes d'abonnement sont plus difficiles à s'en sortir. Parce que les consommateurs s'aperçoivent bientôt qu'ils se font piquer 50 $ par mois, ils n'ont jamais eu l'intention de dépenser.

Cela ne veut pas dire que le commerce électronique est maintenant débarrassé de crimes trompeurs. Les motifs sombres sont généralement un peu plus subtils. En vous poussant à transiger plus vite que vous ne pourriez le faire, par exemple, ou en achetant des choses dont vous n'avez pas vraiment besoin.

Bien que les consommateurs se rendent compte qu'ils ont vendu quelque chose qu'ils ne voulaient pas ou n'avaient pas besoin. C'est pourquoi la conception trompeuse n'est pas une stratégie d'entreprise durable, même en mettant de côté les préoccupations éthiques.

En bref, c'est penser à court terme au détriment de la réputation et de la fidélité à la marque. D'autant que les consommateurs disposent désormais de nombreuses plateformes en ligne où ils peuvent dénoncer et dénoncer les marques qui les ont trompés. Donc, trompez vos clients à vos risques et périls.

Cela dit, il faut plus de temps pour que les gens réalisent que leur vie privée est vendue dans le fleuve. S'ils réalisent même du tout. C'est la raison pour laquelle la conception de motifs sombres est devenue un outil essentiel pour le vaste secteur de la publicité et de la communication de données qui ne prend pas en charge les consommateurs et qui absorbe tranquillement les données – grâce à la graisse facilitant la création de motifs sombres.

Pensez-y comme une pieuvre vampire enveloppée invisiblement autour du web du consommateur, utilisant ses myriades de tentacules et de ventouses pour manipuler en permanence les décisions et fermer l'agence utilisateur afin de garder les données circulant – avec toutes les techniques de test A / B et les outils de gamification pour gagner.

«C'est devenu nettement pire», concède Brignull, discutant de la pratique qu'il a commencé à critiquer il y a presque dix ans. « Les entreprises de technologie sont constamment dans les nouvelles internationales pour un comportement contraire à l'éthique. Ce n'était pas le cas il y a 5-6 ans. Leur utilisation de motifs sombres est la pointe de l'iceberg. L'UI non éthique est une petite chose comparée à une stratégie commerciale contraire à l'éthique. « 

 » Le design UX peut être décrit comme la façon dont une entreprise choisit de se comporter envers ses clients « , ajoute-t-il. Le malaise Internet

Il soutient que la question sous-jacente est vraiment « comportement éthique dans la société américaine en général. »

L'obfuscation trompeuse de l'intention commerciale court tout le chemin à travers les industries de courtage de l'Internet grand public «gratuit». Ici, les consommateurs ont clairement été laissés dans l'ignorance, de sorte qu'ils ne peuvent voir et s'opposer à la façon dont leurs renseignements personnels sont transmis, tranchés et coupés en dés, et utilisés pour tenter de les manipuler

. la manipulation ne fonctionne pas quand c'est évident. Et le but de la publicité ciblée est de manipuler les décisions des gens à partir des informations recueillies à travers la surveillance clandestine de leur activité en ligne (en déduisant qui ils sont via leurs données). Cela pourrait être une décision d'achat.

Les enjeux ont été considérablement augmentés maintenant que l'exploration de données et le profilage comportemental sont utilisés à grande échelle pour tenter d'influencer les processus démocratiques.

Il n'est donc pas surprenant que Facebook soit si timide pour expliquer pourquoi un certain utilisateur sur sa plate-forme voit une annonce spécifique. Parce que si l'énorme opération de surveillance qui sous-tendait la décision algorithmique de servir une annonce particulière était claire, la personne qui la voyait pouvait se sentir manipulée. Et puis ils seraient probablement moins enclins à regarder favorablement la marque qu'on leur demandait d'acheter. Ou l'opinion politique qu'ils étaient poussés à former. Et le business de la technologie publicitaire de Facebook risque de souffrir.

Le design sombre qui tente de vous pousser à transmettre vos informations personnelles est, comme le dit Birgnull, la pointe d'une industrie vaste et obscure qui trafique la déception et la manipulation – Parce qu'il repose sur le mensonge que les gens ne se soucient pas de leur vie privée.

Mais les gens se soucient clairement de la vie privée. Il suffit de regarder la longueur à laquelle les entités ad tech vont obscurcir et tromper les consommateurs sur la façon dont leurs données sont collectées et utilisées. Si les gens ne se soucient pas des entreprises qui les espionnent, pourquoi ne pas leur dire clairement que ça se passe?

Et si les gens étaient vraiment cool de partager leurs informations personnelles et privées avec qui que ce soit, un record gardé de tous les gens qu'ils connaissent et ont des relations avec, pourquoi l'industrie de la publicité ad besoin de les espionner en premier lieu? Ils pourraient tout simplement demander à l'avance tous vos mots de passe.

La tromperie permise par la conception sombre sape non seulement la vie privée, mais a aussi l'effet dissuasif de placer les internautes sous surveillance omniprésente et clandestine. Parce que les décisions non transparentes tirées des conclusions tirées des données obtenues sans le consentement des gens peuvent signifier que, par exemple, seuls certains types de personnes ont accès à certains types d'offres et de prix, alors que d'autres ne le sont pas

. forcé d'apporter des modifications à sa plate-forme publicitaire après avoir montré qu'une catégorie de ciblage publicitaire ciblait les annonceurs contre les publicités, appelées «affinité ethnique» – les utilisateurs de Facebook dont l'activité en ligne indique un intérêt pour «contenu relatif à des communautés ethniques particulières». Plus récemment, les principaux scandales de publicité politique liés aux campagnes de désinformation soutenues par le Kremlin ciblant les États-Unis et d'autres pays via la plateforme de Facebook, et le cambriolage massif des données sur les utilisateurs de Facebook impliquant le conseil politique controversé Cambridge Analytica déployer des applications de quiz pour aspirer abusivement les données des gens dans Afin de construire des profils psychographiques pour le ciblage des publicités politiques, a mis en lumière les risques qui découlent des plates-formes qui opèrent en gardant systématiquement leurs utilisateurs dans le noir.

À la suite de ces scandales, Facebook a commencé à offrir un niveau de divulgation autour de qui paie et exécute certaines des annonces sur sa plate-forme. Mais de nombreux aspects de sa plate-forme et de ses opérations restent cachés. Même les composants qui sont un peu ouverts sont encore obscurcis à la vue de la majorité des utilisateurs – grâce à l'utilisation continue de modèles sombres de l'entreprise pour manipuler les gens dans l'acceptation sans réelle compréhension.

Et pourtant, alors que la conception sombre l'huile slickly succès dans les moteurs de l'industrie de la technologie ad pendant des années, lui permettant de s'en sortir avec beaucoup de consentement-moins de traitement de données de base, progressivement, progressivement certaines des pratiques les plus ombreuses de ce secteur sont éclairées et fermées – y compris en raison de pratiques de sécurité bâclées, avec autant d'entreprises impliquées dans le commerce et l'exploitation des données des personnes. Il y a juste plus de possibilités de fuites de données.

Les lois entourant la vie privée sont également resserrées. Et les modifications apportées aux règles de protection des données de l'UE sont une des principales raisons pour lesquelles la conception de modèles sombres a récemment fait son retour dans les conversations en ligne. Cette pratique est actuellement menacée par le GDPR qui durcit les règles du consentement.

Cette semaine, une étude du Norwegian Consumer Council a critiqué Facebook et Google pour avoir systématiquement déployé des choix de conception qui poussent les gens à prendre des décisions affectant leur vie privée. – comme le partage des données par défaut, et la friction injectée dans le processus de désengagement, ce qui réduit le nombre de personnes.

Une autre décision de conception manipulative signalée par le rapport illustre particulièrement les niveaux trompeurs auxquels les entreprises s'abaisseront pour faire ce qu'ils veulent – avec le chien de garde qui montre comment Facebook peint de faux points rouges sur son interface utilisateur au milieu des flux de décision de consentement afin d'encourager l'utilisateur à penser qu'ils ont un message ou une notification. Ce qui pousse les gens à se mettre d'accord sans lire de petits caractères.

Un design juste et éthique est une conception qui exige que les gens optent pour des actions qui profitent au service commercial au détriment des intérêts de l'utilisateur. Pourtant, trop souvent, c'est l'inverse: les utilisateurs du Web doivent faire des efforts pour protéger leurs informations ou éviter d'être piqués pour quelque chose qu'ils ne veulent pas.

Vous pourriez penser les types de données personnelles qui Facebook récoltes sont triviales – et se demandent donc quel est le problème si l'entreprise utilise un design trompeur pour obtenir le consentement des gens? Mais le scandale de Cambridge Analytica l'illustre.

L'une des récentes saisies de données de Facebook en Europe souligne également l'utilisation de motifs sombres sur sa plateforme pour tenter de normaliser de plus en plus la vie privée.

Plus tôt cette année, elle a commencé à demander aux Européens de consentir au traitement de leurs selfies à des fins de reconnaissance faciale – une technologie très controversée que l'intervention réglementaire dans la région avait auparavant bloquée. Mais maintenant, en raison de la confiance de Facebook dans l'élaboration de flux de consentement manipulateurs, il s'agit essentiellement d'un moyen de contourner les droits fondamentaux des citoyens de l'UE – en éditant socialement les Européens pour dépasser leurs propres intérêts.

soumis à certaines géographies plus étroitement réglementées; Facebook traite tous ses utilisateurs comme ça. Les utilisateurs européens ont d'abord reçu leurs derniers modèles de modèles sombres, avant le déploiement mondial, grâce à la nouvelle réglementation sur la protection des données de l'UE qui entrera en vigueur le 25 mai.

Le PDG Mark Zuckerberg s'est même félicité du succès de ce mode opératoire trompeur sur scène lors d'une conférence européenne en mai – affirmant que la « grande majorité » des utilisateurs optaient « volontairement » pour la publicité ciblée via son nouveau flux de consentement.

En vérité, le flux de consentement est manipulateur, et Facebook n'offre même pas un opt-out absolu de publicité ciblée sur sa plateforme. Le «choix» qu'il donne aux utilisateurs est d'accepter sa publicité ciblée ou de supprimer leur compte et de laisser le service entièrement. Ce qui n'est pas vraiment un choix si on le compare à la puissance de la plateforme de Facebook et à l'effet de réseau qu'il exploite pour garder les gens à son service.

Le consentement forcé est une cible précoce pour les groupes de campagne d'intimidation. Dans certains États membres de l'UE, l'application collective des droits des données des individus

Bien sûr, si vous lisez la vie privée de Facebook ou de Google, ils prétendent se préoccuper énormément – en disant qu'ils donnent aux gens tous les contrôles nécessaires. et contrôlez l'accès à leurs informations. Mais les contrôles avec des instructions malhonnêtes sur la façon de les utiliser ne sont pas vraiment des contrôles du tout . Et les opt-out qui n'existent pas sentent plutôt comme une serrure.

Les plates-formes restent sûrement au volant parce que – jusqu'à ce qu'un tribunal leur dise le contraire – elles contrôlent non seulement les boutons et leviers mais les positions, les tailles, les couleurs, et finalement la présence ou non des boutons et des leviers.

Et parce que ces géants des technologies de l'information sont devenus si dominants que les services, ils sont en mesure d'exercer un pouvoir énorme sur leurs utilisateurs – même en traquant les non-utilisateurs sur de larges portions du reste de l'Internet. Ils ont même moins de contrôles que les personnes qui sont de facto enfermées, même si, techniquement parlant, les utilisateurs de services pourraient être en mesure de supprimer un compte ou d'abandonner une partie de l'Internet du consommateur.

Les grandes plates-formes technologiques peuvent également tirer parti de leur taille pour analyser le comportement des utilisateurs à grande échelle et tester A / B les modèles de motifs sombres qui trompent le mieux les gens. Ainsi, l'idée que les utilisateurs acceptent volontiers en masse d'abandonner leur vie privée reste le grand mensonge squattant l'Internet des consommateurs.

Les gens choisissent simplement le choix qui leur est présélectionné

C'est là que les choses restent telles quelles. Mais l'avenir semble de plus en plus sombre pour la conception de motifs sombres

Le changement est dans l'air

Ce qui a changé, c'est qu'il y a des tentatives pour contester légalement l'hypocrisie numérique, en particulier autour de la vie privée et du consentement. Ceci après que de multiples scandales ont mis en évidence des pratiques très ombrées permises par l'extraction de données sans consentement – ce qui a permis de clarifier à la fois les risques et l'érosion des droits des utilisateurs.

Le GDPR européen a renforcé les exigences réparation par des sanctions valant la peine d'exécution. Cela a déjà provoqué la fermeture complète de certaines entreprises de traitement de données ou la sortie de l'Europe.

De nouvelles lois avec des dents rendent les défis légaux viables, ce qui n'était tout simplement pas le cas auparavant. Bien qu'un important changement à l'échelle de l'industrie prenne du temps, il faudra attendre que les juges et les tribunaux se prononcent.

«C'est une très bonne chose», déclare Brignull du GDPR. Bien qu'il ne soit pas encore prêt à l'appeler le coup de la mort dont le design trompeur a vraiment besoin, avertissant: « Nous devrons attendre de voir si la morsure est aussi forte que l'écorce. »

En attendant, chaque scandale de protection des données sensibilise le public à la façon dont la vie privée est malmenée et aux risques qui en découlent – tant pour les individus (par exemple la fraude d'identité) que pour les sociétés dans leur ensemble (qu'il s'agisse d'interférences électorales ou plus généralement de fomentation sociale nuisible)

Ainsi, alors que la conception de motifs foncés est essentiellement omniprésente avec le réseau de consommation d'aujourd'hui, les pratiques trompeuses utilisées pour protéger et activer sont des périodes empruntées. La direction du voyage – et le sens de l'innovation – est pro-vie privée, contrôle pro-utilisateur et donc anti-trompeur-design. Même si les pratiquants les plus enracinés sont trop investis pour abandonner leurs arts sombres sans combat.

A quoi ressemble donc l'avenir? Qu'est-ce que la «conception de modèle de lumière»? La voie à suivre – du moins en ce qui concerne la vie privée et le consentement – doit être centrée sur l'utilisateur. Cela signifie vraiment demander la permission – en utilisant l'honnêteté pour gagner la confiance en en activant plutôt qu'en désactivant l'agence d'utilisateur.

Les designs doivent être utilisables et clairs, en présentant un véritable choix de bonne foi. Autrement dit, aucun défaut hostile à la vie privée: Donc, optez pour ins, pas opt outs, et le consentement qui est donné librement parce qu'il est basé sur des informations authentiques non trompeuses égoïstes, et parce qu'il peut toujours être révoqué à volonté

aussi être empathique. Il doit comprendre et être sensible à la diversité – offrant des options claires sans être intentionnellement accablant. L'objectif est de combler l'écart de perception entre ce qui est offert et ce que le client pense qu'ils obtiennent.

Ceux qui veulent voir une évolution vers des modèles clairs et simples soulignent également que les transactions en ligne honnêtement réalisées seront plus heureuses plus sain pour tous – parce qu'ils reflèteront ce que les gens veulent réellement. Ainsi, plutôt que de saisir les profits à court terme, les entreprises jetteront les bases de la fidélité à la marque et de la croissance organique et durable.

L'alternative à la légèreté est également évidente: montée de la méfiance, montée de la colère, – les consommateurs abandonnent les marques et les services qui les envahissent et les font se sentir utilisés. Parce que personne n'aime se sentir exploité. Et même si les gens ne suppriment pas complètement un compte, ils vont probablement modifier leur façon d'interagir, partager moins, être moins confiants, moins engagés, chercher des alternatives qu'ils utilisent bien.

Aussi inévitable si la tromperie continue : Plus de réglementation. If businesses don’t behave ethically on their own, laws will be drawn up to force change.

Because sure, you can trick people for a while. But it’s not a sustainable strategy. Just look at the political pressure now being piled on Zuckerberg by US and EU lawmakers. Deception is the long game that almost always fails in the end.

The way forward must be a new ethical deal for consumer web services — moving away from business models that monetize free access via deceptive data grabs.

This means trusting your users to put their faith in you because your business provides an innovative and honest service that people care about.

It also means rearchitecting systems to bake in privacy by design. Blockchain-based micro-payments may offer one way of opening up usage-based revenue streams that can offer an alternative or supplement to ads.

Where ad tech is concerned, there are also some interesting projects being worked on — such as the blockchain-based Brave browser which is aiming to build an ad targeting system that does local, on-device targeting (only needing to know the user’s language and a broad-brush regional location), rather than the current, cloud-based ad exchange model that’s built atop mass surveillance.

Technologists are often proud of their engineering ingenuity. But if all goes to plan, they’ll have lots more opportunities to crow about what they’ve built in future — because they won’t be too embarrassed to talk about it.

-----

Advertisements:


Source link

Désiré LeSage

0 Comments

No comments!

There are no comments yet, but you can be first to comment this article.

Leave reply

Laisser un commentaire