Le sarcasme pose problème pour les algorithmes informatiques aux élections américaines

Le sarcasme pose problème pour les algorithmes informatiques aux élections américaines
Cette histoire est apparue sur Reuters lorsque la Cour suprême des États-Unis a confirmé les mariages homosexuels dans la même semaine que la Caroline du Sud a débattu en gardant un drapeau controversé de la guerre civile. , L'utilisateur de Twitter @xTomatoez posté & ldquo; Mariage homosexuel et le drapeau confédéré descendant partout.
Cette histoire est apparue sur Reuters

lorsque la Cour suprême des États-Unis a confirmé les mariages homosexuels dans la même semaine que la Caroline du Sud a débattu en gardant un drapeau controversé de la guerre civile. , L'utilisateur de Twitter @xTomatoez posté & ldquo; Mariage homosexuel et le drapeau confédéré descendant partout. Une semaine difficile pour votre oncle redneck sur Facebook.

L'auteur ne se doutait pas que son tweet était l'un des nombreux commentaires d'une société d'analyse, dont l'algorithme prenait son message moqueur au sérieux et décida qu'il était négatif envers le mariage homosexuel. Dans la course à la Maison Blanche en 2016, les campagnes électorales s'appuient sur de telles recherches pour les aider à adapter la publicité et d'autres activités de sensibilisation à des groupes particuliers d'électeurs. La capacité d'un candidat à cibler des électeurs potentiels avec des publicités sur des sujets qui lui tiennent à cœur est cruciale dans une campagne politique américaine moderne.

Comprendre comment les électeurs parlent de problèmes sur Facebook et Twitter est la clé de cet effort. Mais de plus en plus, les collecteurs de données se retrouvent piégés par les conventions de base des médias sociaux comme le sarcasme et la moquerie.

& ldquo; Ils sont de loin les plus grands obstacles à la compréhension du vrai sentiment dans les médias sociaux. a déclaré Michael Meyers, associé directeur de TargetPoint Consulting à Alexandria, en Virginie. Son entreprise, comme beaucoup, essaie de modifier les algorithmes en interne avant que la saison de la campagne ne passe à la vitesse supérieure.

Considérez des phrases comme & ldquo; c'est sûr, & quot; & ldquo; boo-hoo, & quot; ou & ldquo; Je suis choqué. & quot; Compte tenu du contexte approprié, la plupart des gens peuvent évaluer avec précision leur sincérité. Mais pas un algorithme informatique.

La saison de la campagne est trop récente pour qu'il y ait des données fiables sur la valeur de l'analyse des tweets et des messages Facebook. Pourtant, les entreprises de données disent que les analyses seront une ressource importante, avec les sondages et les dossiers électoraux, pour aider les campagnes à dépenser plus efficacement.

Un électeur dont les messages en ligne indiquent un soutien indéfectible et exclusif au candidat républicain à la Maison Blanche Jeb Bush. Par exemple, ne devrait pas obtenir de publicité en ligne pour son rival Marco Rubio.

« Stay Classy »

L'utilisation d'un point de données inexactes généré par le sarcasme mal modèles et mange le temps des scientifiques de données comme ils essaient de savoir où ils se sont trompés et construire des correctifs.

Parfois, la faute réside dans certaines combinaisons de mots En tant que directeur général de HaystaqDNA, Ken Strasma, qui a construit des modèles logiciels pour cibler les électeurs pour les deux campagnes présidentielles de Barack Obama, a récemment découvert.

Haystaq, une firme d'analyse prédictive, a examiné Tweets contenant l'expression & ldquo; classy & rdquo; et trouvé que 72 pour cent d'entre eux l'ont utilisé d'une manière positive. Mais quand il est utilisé près du nom du candidat présidentiel républicain Donald Trump, environ trois quarts des tweets citant "chic" étaient négatifs.

Haystaq a réalisé l'exercice Trump pour enseigner à ses ordinateurs comment un mot pourrait transformer son sens opposé lorsqu'il est utilisé avec un mot supplémentaire particulier.

Dans le cadre de son processus de réglage fin, l'entreprise a également vérifié la combinaison « Trump » et « rester chic », une phrase emblématique de la vedette du film à succès 2004 qui vise presque toujours à se moquer. Chacun de ces tweets était négatif, montrant la puissance de feu supplémentaire de certaines expressions. . Haystaq a ajusté ses algorithmes pour compenser

A Two.42.solutions, directeur de la technologie Mohammad Hamid a dû enseigner à ses ordinateurs que lorsque le terme ldquo normalement neutre, les cheveux et rdquo; Il est mentionné dans un tweet sur le Trump bien coiffé, qui est généralement sarcastique.

Il a souligné un tweet de juin du cinéaste Albert Brooks: & ldquo; Donald Trump annonce ce matin qu'il se présentera à la présidence. Ses cheveux annonceront vendredi. & Quot;

Twitter Flippant

Un autre mot appariement que Hamid dit souvent indique le sarcasme dans un tweet autrement neutre ou positif: & ldquo; Hillary, & quot; signifiant le candidat démocrate Hillary Clinton, et "Benghazi", & quot; la ville libyenne où une mission diplomatique américaine a été attaquée en 2012 alors qu'elle était secrétaire d'État.

En avril, par exemple, un tweeter a annoncé qu'il avait reçu un courriel disant que Clinton se présentait à la présidence. « Maintenant, l'e-mail est parti et je ne peux pas le trouver. #Benghazi, » il tweeté, dans un clin d'œil évident à la ferme conviction par certains conservateurs que Clinton a orchestré une dissimulation sur l'attaque de Benghazi et information non publiés qui devraient avoir a été rendue publique, une affirmation qu'elle et d'autres ont rejetée comme une théorie du complot. Les indices de sarcasme peuvent également provenir de l'identité du tweeter, a déclaré Hamid. Par exemple, un tweet apparemment pro-républicain ou Facebook après venant de quelqu'un qui suit la plupart des démocrates déclencherait une alerte que l'évaluation du tweet pourrait ne pas être précis.

Presque tous les analystes mettent en garde contre la mise trop d'importance dans les médias sociaux, en particulier Twitter étant donné que seulement un cinquième des adultes américains l'utilisent, selon le Pew Research Center. Mais ceux qui ont tendance à avoir un ton sarcastique.

& ldquo; Il y a quelque chose à propos de ces 140 caractères (limite) qui encourage les gens à être plus désinvoltes, & rdquo;

Dans le cas du tweet de @xTomatoez, les backstops humains de Two.42 ont pris la mauvaise classification d'un message qui se moquait plus des valeurs traditionnelles que du mariage homosexuel.

L'algorithme a marqué le tweet pour examen par des yeux humains car il contenait ce que les chercheurs appellent un double négatif, ou deux mots négatifs dans un tweet, un drapeau rouge automatique indiquant les défis de précision possibles. Dans ce cas, les mots révélateurs étaient "durs" et "rdquo"; et & ldquo; redneck, & quot; dit le chercheur Abby Vandenbosch.

& ldquo; Pourquoi quelqu'un voudrait-il analyser mes tweets? & quot; a demandé l'affiche, également connu sous le nom Eddie Adlman, quand un journaliste l'a contacté. Quand on lui a dit qu'il se moquait trop de la classification par machine, il a répondu avec une émoticône compliquée pour "hausser les épaules"

Assez pour confondre beaucoup d'humains, et peut-être un algorithme ou deux. (Reportage par Sarah McBride , édité par Ross Colvin)