Une jeune startup proposant une offre en temps opportun: lutter contre les campagnes de propagande en ligne

Advertisements:


La prévalence des soi-disant fausses nouvelles est bien pire que ce que nous avions imaginé il y a quelques mois. La semaine dernière, Twitter a admis qu'il y avait plus de 50 000 robots russes essayant de confondre les électeurs américains avant l'élection présidentielle de 2016.

Ce ne sont pas seulement les élections qui devraient nous préoccuper. C'est ce qu'affirme Jonathon Morgan, co-fondateur et PDG de New Knowledge, une société de cybersécurité de deux ans et demi basée à Austin qui rassemble des clients cherchant à lutter contre la désinformation en ligne. (À noter: le groupe de 15 personnes a également recueilli tranquillement 1,9 million de dollars en capital de démarrage dirigé par Moonshots Capital, avec la participation de Haystack, GGV Capital, Fonds Geekdom, Capital Factory et Spitfire Ventures.) [19659002] Nous avons discuté plus tôt cette semaine avec Morgan, ancien producteur de contenu numérique et conseiller du Département d'État pour le contre-terrorisme, pour en savoir plus sur son produit, qui utilise intelligemment les faux médias sociaux et les campagnes de propagande. leur réputation. Notre conversation a été éditée légèrement pour la longueur et la clarté.

TC: Parlez-nous un peu de vos antécédents.

JM: J'ai passé ma carrière dans les médias numériques, y compris a [product manager] chez AOL lorsque les magazines se déplaçaient sur Internet. Au fil du temps, ma carrière a évolué vers l'apprentissage automatique et la science des données. Pendant les premiers jours du Web axé sur les applications, il n'y avait pas beaucoup de talent en ingénierie disponible, car il n'était pas considéré comme assez sophistiqué. Les gens comme moi qui n'avaient pas d'expérience en ingénierie mais qui étaient prêts à passer un week-end à apprendre le JavaScript et à produire du code assez rapidement n'avaient pas vraiment besoin d'un pedigree ou d'une expérience.

TC: Comment ça s'est passé? L'expérience vous amène à vous concentrer sur les technologies qui tentent de comprendre comment les plateformes de médias sociaux sont manipulées?

TC: Quand ISIS utilisait des techniques pour brouiller les conversations dans les médias sociaux, des conversations élevées dans la presse américaine. pour comprendre comment ils poussaient leur message. J'ai fait un peu de travail pour la Brookings Institution, ce qui m'a amené à travailler en tant que conseiller en science des données pour le département d'État – développer des stratégies antiterroristes et comprendre le discours public en ligne et la différence entre la communication traditionnelle et le contexte. détourné.

TC: Vous présentez ce service que vous avez développé avec votre équipe aux marques. Pourquoi?

JM: Les mêmes mécanismes et tactiques utilisés par ISIS sont maintenant utilisés par des acteurs beaucoup plus sophistiqués, des gouvernements hostiles aux enfants qui coordonnent l'activité sur Internet pour miner les choses qu'ils n'aiment pas pour la culture. les raisons. Ils vont prendre des activistes de Black Lives et des conservateurs axés sur l'immigration et amplifier leur discorde, par exemple. Nous avons également vu des partisans d'alt-right sur 4chan miner les sorties de films. Ces types d'insurrections numériques sont utilisés par un nombre croissant d'acteurs pour manipuler la façon dont le public a des conversations en ligne.

Nous avons réalisé que nous pourrions utiliser les mêmes idées et technologies pour défendre les entreprises vulnérables à ces attaques. Les sociétés d'énergie, les institutions financières et d'autres sociétés qui gèrent des infrastructures essentielles – elles sont toutes également vulnérables. La manipulation électorale est juste le canari dans la mine de charbon quand il s'agit de la dégradation de notre discours.

TC: Le vôtre est un produit SaaS, je le prends. Comment ça marche?

JM: Oui, c'est un logiciel d'entreprise. Notre technologie analyse les conversations sur plusieurs plates-formes – les médias sociaux et autres – et cherche les signes qu'elle est falsifiée, identifie qui fait la falsification et quelle messagerie ils utilisent pour manipuler la conversation. Avec cette information, notre [customer] peut décider comment répondre. Parfois, c'est pour travailler avec la presse. Parfois, il faut travailler avec les entreprises de médias sociaux pour leur dire: «Ce sont des pratiques hypocrites et même frauduleuses.» Nous travaillons ensuite avec les entreprises pour remédier à la menace.

TC: Quelles entreprises de médias sociaux sont les plus sensibles? interventions:

JM: Il y a un fort appétit pour résoudre le problème dans toutes les sociétés de médias avec lesquelles nous discutons. Facebook et Google se sont exprimés publiquement, mais des actions se déroulent entre amis à huis clos. Beaucoup de gens dans ces entreprises pensent qu'il y a des problèmes qui doivent être résolus, et ils sont modifiables à [working with us].

Le défi pour eux est que je ne suis pas sûr qu'ils ont une idée de qui est responsable de [disinformation much of they time]. C'est pourquoi ils ont été lents à résoudre le problème. Nous pensons que nous ajoutons de la valeur en tant que partenaire parce que nous nous concentrons sur cela à une échelle beaucoup plus petite. Alors que Facebook pense à des milliards d'utilisateurs, nous nous concentrons sur des dizaines de milliers de comptes et de conversations, ce qui reste un nombre significatif et peut avoir une incidence sur la perception publique d'une marque.

TC: Qui êtes-vous?

JM: Nous [aren’t authorized to name them but] nous vendons à des entreprises du secteur du divertissement, de l'énergie et de la finance. Nous avons également travaillé avec des organisations d'intérêt public, notamment l'Alliance pour la sécurisation de la démocratie

TC: À quoi ressemble le processus de vente? Cherchez-vous des changements dans les conversations, puis tendre la main aux entreprises touchées, ou les entreprises vous trouvent-elles?

JM: Les deux. Soit nous découvrons quelque chose ou nous serons approchés et ferons une évaluation initiale des menaces pour comprendre le paysage et qui pourrait cibler une organisation et à partir de là, [we’ll decide with the potential client] s'il y a intérêt à ce qu'ils s'engagent avec nous de façon continue. [19659002] TC: Beaucoup de gens ont parlé cette semaine d'une pièce du New York Times qui semblait offrir une lueur d'espoir que les plateformes de blockchain nous déplaceront au-delà de l'Internet tel que nous le connaissons aujourd'hui et loin des quelques grandes technologies. les entreprises qui sont aussi des lieux de reproduction pour la désinformation. Est-ce le futur ou est-ce que les «fausses nouvelles» sont là pour rester?

JM: Malheureusement, la désinformation en ligne est de plus en plus sophistiquée. Les progrès de l'IA signifient qu'il sera bientôt possible de fabriquer des images, de l'audio et même de la vidéo à une échelle sans précédent. Les comptes automatisés qui semblent presque humains pourront interagir directement avec des millions d'utilisateurs, tout comme vos vrais amis sur Facebook, Twitter ou la prochaine plate-forme de médias sociaux.

De nouvelles technologies comme la blockchain qui nous donnent des moyens robustes d'établir la confiance une partie de la solution, s'ils ne sont pas une balle magique.

-----

Advertisements:
-----

Source link

Désiré LeSage

0 Comments

No comments!

There are no comments yet, but you can be first to comment this article.

Leave reply

Laisser un commentaire