WTF es un diseño oscuro? – TechCrunch

Advertisements:

Si eres un diseñador de UX, no necesitarás este artículo para informarte sobre el diseño de patrones oscuros. Pero tal vez elijas aprovechar aquí el deseo de reafirmar lo que ya sabes: sentirte bien con tu experiencia profesional.

¿O fue que tu conciencia te pinchó? Continúa, puedes ser honesto … o, bueno, ¿puedes?

Una tercera posibilidad: tal vez una aplicación que estabas usando presentó este artículo de una manera que te persuadió para que toques sobre él en lugar de sobre otra pieza de contenido digital . Y es ese tipo de pequeños empujones imperceptibles: qué notar, dónde tocar / hacer clic, de lo que estamos hablando cuando hablamos del diseño de patrones oscuros.

Pero no solo eso. La oscuridad de entra en juego debido a que las opciones de diseño de UX se están seleccionando para ser intencionalmente engañosas. Para empujar al usuario a renunciar a más de lo que creen. O para aceptar cosas que probablemente no harían si entendieran genuinamente las decisiones que estaban siendo forzadas a tomar.

Para decirlo claramente, el diseño de patrones oscuros es engaño y deshonestidad por diseño … ¿Todavía sentado cómodamente? [19659002] La técnica, tal como se implementa en línea hoy, a menudo se alimenta y explota el hecho de que los consumidores sobrecargados de contenido leen con descuido las cosas que se les presentan, especialmente si parece aburrido y están tratando de hacer otra cosa. – como inscribirse en un servicio, completar una compra, llegar a algo que realmente quieren ver, o descubrir lo que sus amigos les han enviado.

El tiempo manipulativo es un elemento clave del diseño de patrones oscuros. En otras palabras cuando ve una notificación, puede determinar cómo responde. O si incluso lo notas. Las interrupciones suelen acumularse en la sobrecarga cognitiva, y el diseño engañoso las despliega para dificultar que un usuario de la web tenga el control total de sus facultades durante un momento clave de decisión.

Se utilizaron patrones oscuros para obtener el consentimiento para recopilar datos personales de los usuarios. los datos a menudo combinan interrupciones no deseadas con una ruta de escape incorporada, ofreciendo una manera fácil de deshacerse del aburrido menú que se interpone en el camino de lo que realmente está tratando de hacer.

Los botones de colores brillantes de “acordar y continuar” son una característica recurrente de este sabor de diseño oscuro. Estas señales llamativas aparecen casi universalmente en todos los flujos de consentimiento: para alentar a los usuarios no a leer o contemplar los términos y condiciones de un servicio, y por lo tanto no para entender lo que están de acuerdo.

Es el 'consentimiento' de la puerta trasera iluminada.

Esto funciona porque los humanos somos perezosos frente a cosas aburridas y / o complejas. Y porque demasiada información abruma fácilmente. La mayoría de las personas tomará el camino de menor resistencia. Especialmente si se les está colocando de manera tranquilizadora en forma de botón pulsador.

Al mismo tiempo, el diseño de diseño oscuro asegurará que la opción de exclusión (si es que hay uno) será casi invisible; El texto en escala de grises sobre un fondo gris es la opción habitual.

Algunos diseños engañosos incluso incluyen un llamado a la acción que se muestra en el botón colorido que quieren que presione, con un texto que dice algo así como '¡Muy bien! Impulsar aún más una decisión.

Del mismo modo, la opción de exclusión menos visible podría usar una sugerencia negativa para implicar que se va a perder algo o se arriesga a que suceda algo malo haciendo clic aquí.

La horrible verdad es que los diseños engañosos pueden ser terriblemente fáciles de pintar.

En lo que respecta a los TyC, realmente está tirando peces en un barril. Debido a que los humanos odian aburrirse o confundirse y hay innumerables maneras de hacer que las decisiones parezcan aburridas o complejas, ya sea presentando montones de jerga legal impenetrable en minúsculas letras en escala de grises para que nadie se moleste en leerlo combinado con los valores por defecto para optar cuando las personas hacen clic en “ok”; desplegar fraseo intencionalmente confuso y / o confuso diseño de botón / alternar que hace que sea imposible para el usuario estar seguro de qué está activado y qué está desactivado (y qué opta por no participar) o incluso si optar por dejarlo pasar significa algo realmente no quieres …

La ​​fricción es otra herramienta clave de este arte oscuro: por ejemplo, los diseños que requieren muchos más clics / grifos e interacciones si quieres optar por no participar. Por ejemplo, se alterna para cada transacción de intercambio de datos, que potencialmente se ejecuta en cientos de controles individuales que un usuario tiene que tocar, solo unos pocos toques o incluso un solo botón para aceptar todo. El pesaje es intencionalmente de una sola dirección. Y no está en el favor del consumidor.

Los diseños engañosos también pueden hacer parecer que no es posible ni siquiera rechazarlos. Por ejemplo, permitir que los usuarios prefieran compartir sus datos y, si intentan encontrar una manera de optar por no participar, solicitando que localicen un clic alternativo difícil de detectar, y luego también requiriendo que se desplacen al final de los T & C largos para desenterrar un Inicialmente, Facebook usó esa técnica para llevar a cabo un gran atraco de datos al vincular las cuentas de los usuarios de WhatsApp con las cuentas de Facebook en 2016. A pesar de las afirmaciones anteriores de que tal giro de privacidad nunca podría ocurrir. La gran mayoría de los usuarios de WhatsApp probablemente nunca se dieron cuenta de que podían decir no, y mucho menos entendieron las implicaciones de privacidad de consentir que sus cuentas estuvieran vinculadas.

Los sitios de comercio electrónico también sugieren sutilmente un add-on opcional (de precio) de una manera que hace aparece como una parte obligatoria de la transacción. Como usar un botón de colores brillantes 'continuar' durante un proceso de comprobación de vuelo, pero que también agrupa automáticamente un seguro adicional opcional, en lugar de simplemente preguntarle a las personas si quieren comprarlo.

O utilizando pre seleccionado casillas de verificación para colar artículos de bajo costo o una pequeña donación de caridad en una canasta cuando un usuario está ocupado revisando el flujo de salida, lo que significa que muchos clientes no se darán cuenta hasta después de realizada la compra.

También se ha descubierto usando un diseño engañoso para vender opciones más caras, como oscurecer vuelos más baratos y / o enmascarar precios, por lo que es más difícil determinar cuál es la opción más rentable.

Patrones oscuros para frustrar los intentos de darse de baja son horriblemente, terriblemente comunes en el marketing por correo electrónico. Como un UX de cancelación de suscripción que requiere que hagas clic en un número ridículo de veces y sigas reafirmando que sí, que realmente quieres salir.

A menudo, estas pantallas adicionales están engañosamente diseñadas para asemejarse a las pantallas de “cancelación de suscripción exitosa” que la gente espera ver cuando sacan los ganchos de comercialización. Pero si miras muy de cerca, en letras típicamente muy pequeñas, verás que en realidad todavía están preguntando si deseas darte de baja. El truco es conseguir que no te desinscribas haciéndote creer que ya tienes.

Otro diseño engañoso muy utilizado que intenta manipular los flujos de consentimiento en línea funciona contra los usuarios al presentar algunos ejemplos selectivamente sesgados, lo que da la ilusión de un contexto útil en torno a una decisión. Pero en realidad se trata de un intento turbo de manipular al usuario presentando una visión sesgada y egoísta que de ninguna manera es una imagen completa y equilibrada de las consecuencias del consentimiento.

En el mejor de los casos es falso. Más claramente, es engañoso y deshonesto.

Este es solo un ejemplo de ejemplos selectivamente parciales presentados durante un flujo de consentimiento de Facebook utilizado para alentar a los usuarios europeos a activar su tecnología de reconocimiento facial. Al hacer clic en “continuar”, el usuario accede a la pantalla de decisión, pero solo después de que se le haya mostrado este intersticial sesgado …

Facebook también utiliza la manipulación emocional aquí, en la redacción de sus ejemplos selectivos, jugar con los temores de las personas (alegando que su tecnología lo “ayudará a protegerlo de un extraño”) y jugar con la sensación de buena voluntad de las personas (alegando que su consentimiento será útil para las personas con discapacidad visual) – tratar de llegar a un acuerdo haciendo sentir miedo o culpa.

No te gustaría este tipo de comportamiento emocionalmente manipulador si un ser humano te lo estuviera haciendo. Pero Facebook frecuentemente trata de manipular los sentimientos de sus usuarios para que se comporten como lo desean.

Por ejemplo, presionar a los usuarios para publicar más contenido, como generar una presentación artificial de “recuerdos” de su perfil y el perfil de un amigo , y luego sugerirle que comparta este contenido no solicitado en su línea de tiempo (lo que lo empuja a hacerlo porque, bueno, ¿qué va a pensar su amigo si decide no compartirlo?). Por supuesto, esto sirve a sus intereses comerciales porque más contenido publicado en Facebook genera más participación y por lo tanto más visitas publicitarias.

O, en un último intento para evitar que una persona elimine su cuenta, se sabe que Facebook usa los nombres y fotos de sus amigos de Facebook para reclamar tal y tal persona lo “extrañará” si deja el servicio. Así que de repente se está confundiendo dejando a Facebook con el abandono de sus amigos.

La distracción es otra técnica de diseño engañosa implementada para escabullirse más del usuario de lo que ellos creen. Por ejemplo, caricaturas cursis que se sirven para hacerte sentir advertido y esponjoso sobre una marca, como cuando te piden periódicamente que revises tu configuración de privacidad.

Nuevamente, Facebook usa esta técnica. La apariencia caricaturesca en torno a su proceso de revisión de privacidad está diseñada para hacer que se sienta seguro acerca de darle a la compañía más datos.

Incluso podría argumentar que la marca completa de Google es un diseño oscuro: coloreado y sonando infantilmente, sugiere algo seguro y divertido. Juguetón incluso. Los sentimientos que genera, y por lo tanto el trabajo que está haciendo, no guardan relación con el negocio en el que se encuentra la empresa: Vigilancia y rastreo de personas para convencerlo de que compre cosas.

Otro ejemplo de diseño de patrones oscuros: notificaciones que aparecen solo mientras contempla comprar un vuelo o una habitación de hotel, por ejemplo, o mirar un par de zapatos, que lo instan a “darse prisa”, ya que solo quedan X escaños o pares.

Esto juega en FOMO de la gente, tratar de acelerar una transacción haciendo que un posible cliente sienta que no tiene tiempo para pensar en ello o investigar más, y así frustrar la decisión más racional e informada que de otro modo podría haber tomado.

El truco es que no hay forma de saber si realmente quedaban solo dos asientos a ese precio. Al igual que los autos fantasmas que atraparon a Uber en su aplicación, que pretendía ser ilustrativa, en lugar de ser representaciones exactas de los automóviles disponibles para recibir, los usuarios de la web tienen que confiar en que lo que les dicen es genuinamente cierto.

Pero, ¿por qué deberías confiar en compañías que intencionalmente intentan engañarte?

Los patrones oscuros apuntan a un vacío ético

La frase diseño de diseño oscuro es bastante antigua en términos de Internet, aunque es probable que lo hayas escuchado siendo discutido bastante tarde. Wikipedia atribuye el crédito al diseñador de UX Harry Brignull con la moneda, en 2010, cuando registró un sitio web (darkpatterns.org) para hacer una crónica y llamar a la práctica como poco ética.

“Los patrones oscuros tienden a funcionar muy bien en A / B y pruebas multivariables simplemente porque un diseño que engaña a los usuarios para hacer algo probablemente logre más conversiones que uno que les permita tomar una decisión informada “, escribió Brignull en 2011, destacando exactamente por qué los diseñadores web se inclinaban por ser tan trucos: Superficialmente funciona . La ira y la desconfianza vienen después.

Cerca de una década más tarde, el sitio web de Brignull sigue llamando valientemente a un diseño engañoso. Así que tal vez debería cambiar el nombre de esta página 'la sala de eterna vergüenza'. (Y sí, antes de señalarlo, puede encontrar marcas propiedad de la entidad matriz de TechCrunch, Juramento, entre las llamadas para el diseño de patrones oscuros … Es justo decir que los flujos de consentimiento de patrones oscuros están vergonzosamente extendidos entre las entidades de medios, muchas de las cuales pretenden monetizar el contenido gratuito con la orientación publicitaria sedienta de datos.)

Por supuesto, el concepto subyacente del diseño engañoso tiene raíces que se extienden a lo largo de la historia humana. Ver, por ejemplo, el caballo de Troya original. (Una especie de diseño de patrón oscuro “inverso”, dado que los griegos construyeron un espectáculo intencionalmente llamativo para despertar la curiosidad del troyano, hacer que bajen la guardia y llevarlo a la ciudad amurallada, permitiendo que se desate la trampa fatal).

Básicamente, cuantas más herramientas han construido los humanos, más posibilidades han encontrado para tirar la lana sobre los ojos de otras personas. Internet simplemente sobrealimenta la práctica y amplía las preocupaciones éticas asociadas porque el engaño puede llevarse a cabo a distancia y a gran escala. Aquí las personas que te mienten ni siquiera tienen que arriesgarse a sentir una punzada de culpa personal porque no tienen que mirarte a los ojos mientras lo hacen.

Hoy en día, el hecho de que te caiga el diseño oscuro suele significar que estás Sin quererlo, habrá aceptado que sus datos personales se recopilen y compartan con una gran cantidad de intermediarios de datos que se benefician de la información de las personas que trabajan en el fondo, sin dejar en claro que lo están haciendo ni qué están haciendo exactamente para convertir sus datos en su oro Entonces, sí, usted está pagando por servicios de consumo gratuitos con su privacidad.

Otro aspecto del diseño de patrones oscuros se ha inclinado a alentar a los usuarios de Internet a formar hábitos adictivos asociados a aplicaciones y servicios. A menudo, este tipo de adicción que forma patrones oscuros es menos obvio visualmente en una pantalla, a menos que empieces a contar la cantidad de notificaciones que te envían, o el chantaje emocional desencadena que estás sintiendo que envías un mensaje para un “amigo alterno”, o no te pierdas tu turno en un 'juego de racha'.

Esta es la escuela de diseño de productos 'enganchada' de Nir Eyal. Lo que de hecho se ha topado con una reacción reciente, con la gran tecnología ahora compitiendo, al menos superficialmente, por ofrecer las llamadas herramientas de “bienestar digital” para que los usuarios puedan desenganchar. Sin embargo, estas son herramientas de las que las plataformas todavía tienen mucho control. Por lo tanto, no hay ninguna posibilidad de que se le anime a abandonar su servicio por completo.

El diseño oscuro del patrón también le puede costar dinero directamente. Por ejemplo, si te engañan para que te registres o continúes con una suscripción, realmente no querías. Aunque esos engaños de suscripción flagrantemente atroces son más difíciles de conseguir. Debido a que los consumidores pronto notan que están siendo pillados por $ 50 al mes que nunca tuvieron la intención de gastar.

Eso no quiere decir que el comercio electrónico ya no contenga crímenes engañosos. Los patrones oscuros generalmente se han vuelto un poco más sutiles. Te empuja a realizar transacciones más rápido de lo que podrías, por ejemplo, o a vender cosas que realmente no necesitas.

Aunque los consumidores normalmente se darán cuenta de que se les ha vendido algo que no querían o que no necesitarían con el tiempo. Es por eso que el diseño engañoso no es una estrategia comercial sostenible, incluso deja de lado las preocupaciones éticas.

En resumen, es el pensamiento a corto plazo a expensas de la reputación y la lealtad a la marca. Especialmente porque los consumidores ahora tienen muchas plataformas en línea donde pueden ventilar y denunciar a las marcas que los han engañado. Así que engañar a sus clientes a su propio riesgo.

Dicho esto, lleva más tiempo para que las personas se den cuenta de que su privacidad se está vendiendo río abajo. Si siquiera se dan cuenta en absoluto. Este es el motivo por el cual el diseño de patrones oscuros se ha convertido en una herramienta clave para la vasta industria de intermediación de datos y tecnología publicitaria no consumista que engorda al chupar tranquilamente los datos de las personas gracias a la grasa habilitante del diseño de patrones oscuros.

Piense en ello como un pulpo vampiro hinchado envuelto de forma invisible en la web del consumidor, utilizando sus innumerables tentáculos y retoños para manipular continuamente las decisiones y cerrar la agencia del usuario para mantener el flujo de datos, con todas las técnicas de prueba A / B y herramientas de gamificación que necesita para ganar.

“Se ha vuelto sustancialmente peor”, coincide Brignull, discutiendo la práctica que comenzó a hacer una crónica crítica hace casi una década. “Las compañías tecnológicas están constantemente en las noticias internacionales por su comportamiento poco ético. Este no era el caso hace 5-6 años. Su uso de patrones oscuros es la punta del iceberg. UI no ético es una pequeña cosa en comparación con la estrategia empresarial poco ética. “

” El diseño de UX puede describirse como la forma en que una empresa elige comportarse con sus clientes “, agrega, diciendo que el diseño web engañoso es simplemente un síntoma de una El malestar de Internet.

Argumenta que el problema subyacente es realmente “comportamiento ético en la sociedad estadounidense en general”.

La ofuscación engañosa de la intención comercial ciertamente abarca todo el camino a través de las industrias de intermediación de datos y tecnología publicitaria. del consumidor 'libre' de Internet. Aquí los consumidores se han mantenido a oscuras por lo que no pueden ver y objetar cómo se entrega su información personal, cortarla en rodajas y cortarla en cubitos, y utilizarla para tratar de manipularla.

Desde una perspectiva de tecnología publicitaria, la preocupación es que la manipulación no funciona cuando es obvio. Y el objetivo de la publicidad dirigida es manipular las decisiones de las personas sobre la base de la información de inteligencia recopilada a través de la vigilancia clandestina de su actividad en línea (para inferir quiénes son a través de sus datos). Esta podría ser una decisión de compra. Igualmente podría ser un voto.

Las apuestas se han incrementado considerablemente ahora que la minería de datos y los perfiles de comportamiento se utilizan a escala para tratar de influir en los procesos democráticos.

Así que no sorprende que Facebook sea tan tímido al explicar por qué un determinado usuario en su plataforma está viendo un anuncio específico. Porque si la gran operación de vigilancia que sustentaba la decisión algorítmica de servir a un anuncio en particular quedaba clara, la persona que lo viera podría sentirse manipulada. Y entonces probablemente estarían menos inclinados a mirar favorablemente a la marca que estaban siendo instados a comprar. O la opinión política que estaban siendo forzados a formar. Y el negocio de tecnología publicitaria de Facebook puede sufrir.

El diseño de patrón oscuro que está tratando de empujarlo para que entregue su información personal es, como dice Birgnull, solo el comienzo de una vasta y sombría industria que comercia con el engaño y la manipulación por diseño – porque se basa en la mentira de que a las personas no les importa su privacidad.

Pero a las personas claramente les importa la privacidad. Solo mire hasta qué extremo las entidades de tecnología publicitaria se ocultan y engañan a los consumidores sobre cómo se recopilan y utilizan sus datos. Si a la gente no le importa que las empresas los espíen, ¿por qué no simplemente decirles claramente que está sucediendo?

Y si la gente estaba realmente emocionada de compartir su información personal y privada con cualquier persona, y totalmente bien de ser rastreados donde quiera que vayan un registro de todas las personas que conocen y con las que tienen relaciones, ¿por qué la industria de tecnología publicitaria debería espiarlas? Podrían simplemente solicitar de antemano todas sus contraseñas.

El engaño habilitado por el diseño oscuro del patrón no solo erosiona la privacidad, sino que tiene el efecto escalofriante de someter a los usuarios a una vigilancia clandestina generalizada, además de permitir la discriminación dañina a gran escala. Debido a que las decisiones no transparentes tomadas de inferencias obtenidas a partir de datos tomados sin el consentimiento de la gente pueden significar que, por ejemplo, solo a ciertos tipos de personas se les muestran ciertos tipos de ofertas y precios, mientras que otros no lo son.

Facebook era se ve obligado a realizar cambios en su plataforma publicitaria después de que se mostrara que una categoría de orientación de anuncios les permite a los anunciantes orientar los anuncios, denominada “afinidad étnica”, también conocida como usuarios de Facebook cuya actividad en línea indica interés en “contenido relacionado con comunidades étnicas particulares”. podría utilizarse para publicar anuncios de vivienda y empleo que discriminan a grupos protegidos.

Más recientemente, los principales escándalos políticos relacionados con campañas de desinformación respaldadas por el Kremlin dirigidas a los EE. UU. y otros países a través de la plataforma de Facebook, y el atraco masivo de datos de usuario de Facebook la controvertida consultoría política Cambridge Analytica implementando aplicaciones de prueba para absorber indebidamente los datos de las personas Para construir perfiles psicográficos para la orientación política publicitaria, se ha puesto de relieve los riesgos que surgen de las plataformas que operan manteniendo sistemáticamente a sus usuarios en la oscuridad.

Como resultado de estos escándalos, Facebook ha comenzado a ofrecer un nivel de divulgación quién está pagando y publicando algunos anuncios en su plataforma. Pero muchos aspectos de su plataforma y operaciones permanecen envueltos. Incluso aquellos componentes que se abren un poco siguen ocultos a la vista de la mayoría de los usuarios, gracias al uso continuo de patrones oscuros por parte de la compañía para manipular a las personas para que las acepten sin una comprensión real.

el exitoso aceite en los motores de la industria de la tecnología publicitaria durante años, lo que le permite salirse con tanto menos procesamiento de datos de fondo, poco a poco, poco a poco algunas de las prácticas más sombrías de este sector se iluminan y cierran – incluso como consecuencia de prácticas de seguridad de mala calidad, con tantas empresas involucradas en la comercialización y extracción de datos de las personas. Solo hay más oportunidades para que se filtren los datos.

También se están endureciendo las leyes sobre privacidad. Y los cambios en las reglas de protección de datos de la UE son una razón clave por la que el diseño de patrones oscuros ha vuelto a aparecer en las conversaciones en línea últimamente. La práctica está bajo una amenaza legal mucho mayor ahora que GDPR ajusta las reglas sobre consentimiento.

Esta semana un estudio del Consejo Noruego del Consumidor criticó Facebook y Google por implementar sistemáticamente opciones de diseño que empujan a las personas a tomar decisiones que afectan negativamente a su propia privacidad – como los incumplimientos de datos compartidos, y la fricción inyectada en el proceso de exclusión para que menos personas lo hagan.

Otra decisión de diseño manipulador marcada por el informe es especialmente ilustrativa de los niveles engañosos a los que las empresas se someterán para hacer que los usuarios lo hagan lo que quieren, con el perro guardián señalando cómo Facebook pinta puntos rojos falsos en su interfaz de usuario en medio de los flujos de decisión de consentimiento con el fin de alentar al usuario a pensar que tienen un mensaje o una notificación. De esta manera, se apresura a las personas a aceptar sin leer letra pequeña.

El diseño justo y ético es un diseño que requiere que las personas opten de manera afirmativa por cualquier acción que beneficie el servicio comercial a expensas de los intereses del usuario. Sin embargo, con demasiada frecuencia sucede al revés: los usuarios de la Web tienen que pasar por la fatiga y el esfuerzo para tratar de salvaguardar su información o evitar que les piquen por algo que no desean.

Puede pensar en los tipos de datos personales que Las cosechas de Facebook son triviales, y entonces, ¿cuál es el problema si la empresa utiliza un diseño engañoso para obtener el consentimiento de la gente? Pero los propósitos a los que se puede someter la información de la gente no son en absoluto triviales, como lo ilustra el escándalo de Cambridge Analytica.

Uno de los datos recientes de Facebook en Europa también subraya cómo está usando patrones oscuros en su plataforma para intentar normalizar cada vez más la privacidad tecnologías hostiles.

A principios de este año comenzó a pedir a los europeos el consentimiento para procesar sus selfies con fines de reconocimiento facial, una tecnología muy controvertida que la intervención reguladora en la región había bloqueado anteriormente. Sin embargo, ahora, como consecuencia de la confianza de Facebook en elaborar flujos de consentimiento manipuladores, se ha descubierto esencialmente una forma de eludir los derechos fundamentales de los ciudadanos de la UE mediante la ingeniería social de los europeos para anular sus propios intereses.

Tampoco este tipo de manipulación es exclusiva dirigido a ciertas geografías más estrictamente reguladas; Facebook está tratando a todos sus usuarios así. Los usuarios europeos acaban de recibir su último conjunto de diseños oscuros primero, antes de un lanzamiento mundial, gracias a la nueva regulación de protección de datos del bloque que entrará en vigor el 25 de mayo.

El CEO Mark Zuckerberg llegó incluso a regodearse con el éxito de este engañoso modus operandi en el escenario de una conferencia europea en mayo, alegando que la “gran mayoría” de los usuarios estaba “voluntariamente” optando por la publicidad dirigida a través de su nuevo consentimiento.

En verdad, el consentimiento es manipulador y Facebook ni siquiera ofrece una opción de exclusión total de la publicidad dirigida en su plataforma. La 'opción' que le da a los usuarios es aceptar su publicidad dirigida o eliminar su cuenta y abandonar el servicio por completo. Lo cual no es realmente una elección cuando se compara con el poder de la plataforma de Facebook y el efecto de red que explota para mantener a la gente usando su servicio.

'El consentimiento forzado' es un objetivo temprano para los grupos de campaña de privacidad que usan GDPR abriendo la puerta , en ciertos estados miembros de la UE, a la aplicación colectiva de los derechos de datos de las personas.

Por supuesto, si lees Facebook o Google PR en torno a la privacidad, dicen que les importa muchísimo, diciendo que le dan a la gente todos los controles que necesitan para administrar y controlar el acceso a su información. Pero los controles con instrucciones deshonestas sobre cómo usarlos en realidad no son controles en absoluto . Y las inhabilitaciones que no existen huelen más como un cerrojo.

Las plataformas ciertamente permanecen firmemente en el asiento del conductor porque, hasta que un tribunal les diga lo contrario, no solo controlan los botones y palancas pero las posiciones, tamaños, colores, y finalmente la presencia o no de los botones y palancas.

Y debido a que estos grandes gigantes de la tecnología se han vuelto tan dominantes como los servicios, son capaces de ejercer un enorme poder sobre sus usuarios, incluso rastreando a no usuarios en grandes extensiones del resto de Internet, y dando incluso menos controles que las personas que están encerradas de facto, incluso si, técnicamente hablando, los usuarios del servicio podrían ser capaces de eliminar una cuenta o abandonar un elemento básico de la web del consumidor.

Las plataformas de grandes tecnologías también pueden aprovechar su tamaño para analizar el comportamiento del usuario a gran escala y A / B probar los diseños de patrones oscuros que engañan mejor a las personas. Por lo tanto, la noción de que los usuarios estuvieron de acuerdo voluntariamente en masa para renunciar a su privacidad sigue siendo la gran mentira sobre el Internet del consumidor.

Las personas simplemente eligen la opción que está siendo preseleccionada para ellos.

Ahí es donde las cosas se mantienen como están. Pero el futuro se ve cada vez más oscuro para el diseño de patrones oscuros.

El cambio está en el aire.

Lo que ha cambiado es que hay intentos de desafiar legalmente la falsedad digital, especialmente en torno a la privacidad y el consentimiento. Esto después de múltiples escándalos ha puesto de relieve algunas prácticas muy sombrías que están siendo habilitadas por la minería de datos sin consentimiento, haciendo que los riesgos y la erosión de los derechos de los usuarios sean claros.

La GDPR de Europa ha ajustado los requisitos sobre el consentimiento y está creando la posibilidad de reparación a través de sanciones vale la pena la aplicación. Ya ha causado que algunas empresas de tratamiento de datos desconecten completamente o salgan de Europa.

Las nuevas leyes con dientes hacen que los desafíos legales sean viables, lo que simplemente no era el caso antes. Aunque el cambio principal en toda la industria tomará tiempo, ya que requerirá esperar a que los jueces y los tribunales lo decidan.

“Es algo muy bueno”, dice Brignull de GDPR. Aunque todavía no está listo para llamarlo el golpe mortal que realmente necesita el diseño engañoso, advirtiendo: “Tendremos que esperar para ver si la mordida es tan fuerte como la corteza”.

Mientras tanto, cada escándalo de protección de datos aumenta la conciencia pública sobre cómo se manipula y abusa de la privacidad, y los riesgos que se derivan de eso, tanto para las personas (por ejemplo, fraude de identidad) como para la sociedad en general (ya sea por interferencia electoral o más ampliamente por fomentar divisiones sociales dañinas) .

Por lo tanto, aunque el diseño de patrones oscuros es esencialmente omnipresente con la red de consumidores de hoy, las prácticas engañosas que se han utilizado para proteger y habilitar son en tiempo prestado. La dirección de viaje, y la dirección de la innovación, es pro-privacidad, control pro-usuario y, por lo tanto, diseño antipictivo. Incluso si los practicantes más incrustados están demasiado dotados para abandonar sus artes oscuras sin una pelea.

¿Cómo se ve el futuro? ¿Qué es el “diseño de patrón de luz”? El camino a seguir, al menos en lo que respecta a la privacidad y el consentimiento, debe ser centrado en el usuario. Esto significa pedir genuinamente permiso: usar la honestidad para ganar la confianza habilitando en lugar de deshabilitar la agencia del usuario.

Los diseños deben ser líderes en usabilidad y claridad, presentando una elección genuina y de buena fe. Lo que significa que no hay incumplimientos hostiles de privacidad: así que opte por inscribirse, no por darse de baja, y el consentimiento se otorga libremente porque se basa en información genuina y no en el engaño egoísta, y porque también siempre puede revocarse a voluntad.

también sé empático. Debe comprender y ser sensible a la diversidad, ofreciendo opciones claras sin ser intencionalmente abrumador. El objetivo es cerrar la brecha de percepción entre lo que se ofrece y lo que el cliente piensa que está obteniendo.

Quienes desean ver un cambio hacia patrones de luz y trato simple también señalan que las transacciones en línea honestamente logradas serán más felices y más saludable para todos los interesados, porque reflejarán lo que la gente realmente quiere. Entonces, en lugar de aprovechar engañosamente ganancias a corto plazo, las compañías sentarán las bases para la lealtad a la marca y el crecimiento orgánico y sostenible.

La alternativa al patrón de la luz también es clara: creciente desconfianza, creciente enojo, más escándalos y finalmente – consumidores que abandonan marcas y servicios que los arrastran y hacen que se sientan utilizados. Porque a nadie le gusta sentirse explotado. E incluso si las personas no eliminan una cuenta por completo, es probable que modifiquen la forma en que interactúan, compartiendo menos, siendo menos confiados, menos comprometidos y buscando alternativas que les hagan sentir bien.

También es inevitable si el engaño masivo continúa : Más regulación. If businesses don’t behave ethically on their own, laws will be drawn up to force change.

Because sure, you can trick people for a while. But it’s not a sustainable strategy. Just look at the political pressure now being piled on Zuckerberg by US and EU lawmakers. Deception is the long game that almost always fails in the end.

The way forward must be a new ethical deal for consumer web services — moving away from business models that monetize free access via deceptive data grabs.

This means trusting your users to put their faith in you because your business provides an innovative and honest service that people care about.

It also means rearchitecting systems to bake in privacy by design. Blockchain-based micro-payments may offer one way of opening up usage-based revenue streams that can offer an alternative or supplement to ads.

Where ad tech is concerned, there are also some interesting projects being worked on — such as the blockchain-based Brave browser which is aiming to build an ad targeting system that does local, on-device targeting (only needing to know the user’s language and a broad-brush regional location), rather than the current, cloud-based ad exchange model that’s built atop mass surveillance.

Technologists are often proud of their engineering ingenuity. But if all goes to plan, they’ll have lots more opportunities to crow about what they’ve built in future — because they won’t be too embarrassed to talk about it.

-----

YTM Advertisements:


Source link

Désiré LeSage

0 Comments

No comments!

There are no comments yet, but you can be first to comment this article.

Leave reply

Leave a Reply