You are here: Home > Technologie > Cette Facebook "manipulation" scandale est ridicule - Entreprises Test Products (et vous) All The Time

Cette Facebook "manipulation" scandale est ridicule - Entreprises Test Products (et vous) All The Time

Update: April 16 From: BBS Author: Anonymous Tags: Tech, finances, de la science

Introduction

Le Grand Manipulateur. L'Internet a trouvé quelque chose de nouveau à être indignés la semaine dernière, quand il a été révélé qu'un test de produit Facebook pourrait avoir temporairement affecté la façon dont certains de ses utilisateurs sentir. Ce

Advertisement

Cette Facebook "manipulation" scandale est ridicule - Entreprises Test Products (et vous) All The Time


Le Grand Manipulateur.

L'Internet a trouvé quelque chose de nouveau à être indignés la semaine dernière, quand il a été révélé qu'un test de produit Facebook pourrait avoir temporairement affecté la façon dont certains de ses utilisateurs sentir.

Ce test, l'un des nombreux l'entreprise procède régulièrement dans le but d'améliorer son produit, impliqué 700 000 utilisateurs anglophones Facebook pour une semaine en 2012.

Le test a été conçu pour tester un règne "meme" à l'époque: les gens l'hypothèse que le ton optimiste du peuple de contenu partagé et vit sur Facebook, tous ces «aime» et «amis» et des photos de groupe heureux, pourrait être la cause de le monde réel pour être enfoncé dans la même manière, sans doute, que les modèles de couverture Photoshopped sont pensés pour faire de vraies personnes insécurité et malheureux de leur normalité.

Données scientifiques de Facebook conçus une façon intelligente de tester cette théorie. Ils mettent en place un filtre de mot d'évaluer tous les postes qui étaient éligibles pour être placé dans Nouvelles RSS de chaque utilisateur et puis ils tordu l'algorithme de sélection de sorte que certains utilisateurs ont eu un peu plus de contenu «positif» et d'autres ont eu un peu plus de contenu "négatif". Ensuite, les scientifiques ont utilisé le filtre de mots de comparer les messages d'utilisateurs qui ont vu plus de contenu «positif» avec ceux qui ont vu plus de contenu "négatif".

Les résultats du test ont suggéré que le "meme" du moment était mal.

Plutôt que d'être déprimés que leurs vies ne ont pas à la hauteur de celles des gens heureux sur Facebook, les utilisateurs qui ont vu le contenu légèrement plus positive effectivement affiché des mises à jour d'état un peu plus positifs. Les utilisateurs qui ont vu le contenu un peu plus négative, quant à lui, affiché des mises à jour un peu plus négatifs.

En d'autres termes, loin d'être déprimé par le bonheur dépeint sur Facebook, les gens semblaient trouver le bonne humeur légèrement infectieux. Et vice versa.

Cette information a été utile à Facebook pour décider ce qu'il faut faire (et ne pas faire) pour son produit.

Pour des raisons compréhensibles, la société ne voulait pas son produit pour que les gens déprimés (ce que l'entreprise fait?). Et si l'algorithme de Nouvelles RSS Facebook choisissait contenu qui a rendu les gens déprimés, comme le mème vigueur suggérait, puis Facebook voulait savoir. Mais les résultats de l'essai ont suggéré que la théorie était fausse. Ainsi, selon une personne familière avec la situation, Facebook n'a pas changé son produit en réponse à l'épreuve.

Mais cela n'a pas empêché un grand nombre de personnes de l'explosion d'indignation quand ils ont entendu parler du test.

Facebook est volontairement manipulé nos émotions, ces gens hurlaient.

Facebook nous utilise comme cobayes à leur insu!

Facebook abuse de la confiance de ses utilisateurs!

Et ainsi de suite. Même maintenant, près d'une semaine après les nouvelles éclaté, les gens agissent encore comme si Facebook est une sorte de l'ère numérique Mengele, conduite mauvaises expériences, nocifs sur des millions de tests-sujets humains non consentants.

Allons.

Ce était un test de produit.

Entreprises effectuent des tests de produits tout le temps.

Et ces tests de produits sont souvent conçus pour évaluer les émotions de ceux qui utilisent les produits.

Oui, ce est vrai que beaucoup de ces tests de produits sont menées par des groupes de discussion ou des projections tests ou d'autres lieux où les gens savent qu'ils participent à un test de produit. Mais beaucoup d'autres ne sont pas.

Quand une entreprise de publipostage teste messages, par exemple, il ne vous dit pas ce est d'effectuer un test. Quand les politiciens tester les points de discussion, ils ne vous disent pas qu'ils les tester. Même pour les entreprises qui testent différentes publicités ou promotions puis compare les taux de réponse.

Qui plus est, dans le domaine numérique, des sociétés comme Facebook effectuent des tests de produits sur les participants-leur "involontaires" utilisateurs-presque tous les jours.

Lorsque, comme un dirigeant de Google, Marissa Mayer célèbre testé 41 nuances de bleu pour voir l'ombre qui a poussé le taux de réponse de l'utilisateur le plus élevé, elle effectuait un test de produit. Les utilisateurs de Google ne savaient pas qu'ils étaient utilisés comme sujets de test. Marissa Mayer n'a pas demandé la permission de tester ce qu'ils pensaient de chaque bleu particulier. Elle vient de les tester.

Du côté de la publicité, en outre, Google teste millions d'annonces tous les jours. Google vous présente ses utilisateurs, avec différents stages et formulations annonce et photos, jusqu'à ce qu'il figure sur les annonces qui vous êtes le plus susceptible de répondre à. Google, en d'autres termes, teste ce que vous voyez et faites toute la journée, le tout sans que vous le sachiez. Et il ne faut Amazon et des dizaines d'autres entreprises numériques avec les ressources technologiques nécessaires pour continuellement Test A / B avec le but d'améliorer leurs produits.

Mais Facebook a essayé de manipuler les émotions de ses utilisateurs !, les gens protestent encore.

En fait, Facebook ne essayait pas de le faire.

Facebook essayait de voir si une théorie qui prévaut sur l'impact du produit de Facebook sur les émotions était correcte ou non. Et il se est avéré qu'il ne était pas.

Dans le processus, Facebook peut: -avoir peut temporairement, légèrement influencé les émotions de certains de ses utilisateurs.

Mais il est important de noter à quel point cette légère influence possible était.

L'étude de Facebook, une personne familière avec la situation dit, constaté que les utilisateurs dont Feeds Nouvelles ont été mis à inclure modestement plus de contenu «positif» que faites légèrement plus «positives» les commentaires de l'utilisateur moyen à la moyenne, de l'ordre de un (1) supplémentaire mot positif pour mille (1 000) mots.

De même, les utilisateurs dont Feeds Nouvelles ont été mis à inclure modestement plus de contenu "négatif" que la moyenne ont été trouvés en écrire un (1) mot supplémentaire négative pour mille (1 000) mots que la moyenne.

Ce ne est pas exactement influence émotionnelle massif.

Mais Facebook peut manipuler nos émotions, les internautes indignés crient encore. Facebook peut façonner nos pensées. Facebook peut affecter les élections!

Facebook est beaucoup trop puissant, en d'autres termes.

Facebook est certainement puissant. Et, dans les mains des mauvaises personnes, Facebook pourrait certainement être utilisé comme un outil de contrôle de l'esprit du marché de masse.

Mais quand il se agit de préoccupations à ce sujet - sur les entreprises qui ont le pouvoir de manipuler les émotions, pensées façonner, et affecter des élections - il ya probablement d'autres cibles, plus gros à se inquiéter.

Tels que les réseaux de télévision.

VOIR AUSSI: Réagit Facebook: "Nous ne voulais pas te versement»

Advertisement
12