Tune : ne lisez plus les commentaires !

Article publié sur : https://www.geekzone.fr/2019/03/19/tune-ne-lisez-plus-les-commentaires/
Encore à l’état expérimental, Tune est une extension pour Chrome qui permet de masquer facilement les commentaires dits “toxiques” des principaux réseaux sociaux. Développé par Jigsaw (ex-Google Ideas), Tune utilise l’API Perspective et profite de ses algorithmes d’apprentissage automatique (“machine learning”) pour débusquer les trolls et autres commentaires dispensables. Grâce à un petit potentiomètre, on peut régler l’intensité du nettoyage…

2 « J'aime »

C’est à mon sens une manière extrêmement caricaturale et réductrice de qualifier le soft. Perso, je le vois plutôt comme un premier pas intéressant vers un outil qui permet de faire le tri intelligemment dans les commentaires. Comme expliqué dans le papier, c’est encore en phase expérimentale (donc imparfait) mais prometteur. Et puis surtout, tu peux facilement l’activer (avec plusieurs degrés de nettoyage) et le désactiver. Il faut le voir comme une expérience qui, l’air de rien, répond à un réel besoin d’une frange importante des utilisateurs de réseaux sociaux (besoin auxquels lesdits réseaux ne semblent pas capables de répondre).

2 « J'aime »

La phrase la plus importante de ton message est paradoxalement entre parenthèses. :slightly_smiling_face:

@Gr3e : A priori si je lis bien l’article on est très loin de la censure ou d’une tierce partie désincarnée qui juge ce qui est bien ou mal, on parle d’un logiciel que tu paramètres, et de trolls, et le mot est faible, comme ceux qui ont agités dernièrement le landerneau des journalistes.

Mais si je suis contre l’IA à tout va, en l’occurrence ça serait utile pour les multitudes de petits sites infectés.

Mais autant les petits sites n’ont pas les moyens, autant les sites comme Twitter ou Facebook auraient les moyens d’effectuer de la modération, comme sur Geekzone par exemple, mais se refusent de le faire pour cause de premier amendement dévoyé, qu’ils appliquent en plus aux pays n’ayant pas cette culture ni cette loi.

Et donc cet utilitaire répond à un besoin que devraient remplir ces réseaux sociaux.

C’était pas l’une des règles d’Internet de ne pas lire les commentaires ?

Du coup, on est pas censé lire ce message non ? :stuck_out_tongue:

1 « J'aime »

Haha bien vu :slight_smile:
Et en fait oui, nos commentaires sur ce fil n’apportent pas grand chose au final pour l’instant.

Est-ce que les hordes de rageux de tous bords qui s’expriment sur les forums et les commentaires représentent le réel sous couvert de pseudo-anonymat? Vous avez 2h.

3 « J'aime »

Parce que tu crois que la bulle des réseaux sociaux n’est pas déjà une vision biaisée de la réalité ?

Il y a un vrai problème de « bruit » sur bon nombre de ces réseaux, et un vrai problème de modération inexistante de la part des sociétés qui les gèrent. Quand une personnalité avec un nombre important de followers poste une photo sur Instagram, et qu’elle doit se cogner des dizaines de trolls qui l’insultent, elle n’a aujourd’hui aucun moyen d’intervention facile, aucun outil pour se débarrasser de ces réactions nocives et inutiles.

Du coup, ça a grave du sens de bosser sur des outils qui permettront de se débarrasser du bruit (des commentaires toxiques) facilement. Ça ne veut pas forcément dire que ça va baiser le conversation (en tous cas, pas plus qu’elle ne l’est déjà par l’effet de « bulle »), ça ne veut pas non plus dire que ça fera taire la critique. L’idée c’est juste de permettre aux gens d’avoir un filtre qui leur permet de se débarrasser de ce qu’ils estiment toxique.

Encore une fois, ça n’est qu’une expérience, et personne n’est obligé de l’installer. Moi je trouve l’idée intéressante, ne fut-ce que parce que si ça marche, ça ne permettra plus à ces grands réseaux de dire « on n’arrive pas à modérer comme on devrait ». On pourra leur pointer l’outil du doigt et dire : si, si, regardez, ça existe.

4 « J'aime »

Si justement, et ce soft s’assure de te conforter dans cette idée!
Quid du prochain soft dans le même genre qui va te supprimer certaines populations de ton flux, certaines idées politiques, ou même certains termes…
Ces réseaux le font déjà pas mal, mais avec des softs comme ça, tu les encourage

1 « J'aime »

Je me répète, mais ce n’est pas du tout l’objectif de l’outil. Ici, on parle d’un aspect « toxique » (c’est-à-dire des commentaires qui ne servent fondamentalement à rien, à part véhiculer des insultes ou autres propos détestables, du « trolling » en somme). Et comme en plus, il est modulable à la volée, on peut facilement choisir de masquer ou pas selon divers degrés de toxicité. Il ne s’agit ni plus ni moins que d’une automatisation de procédés déjà utilisés par exemple sur Reddit, où certains commentaires qui sont signalés comme toxiques ne sont visibles qu’en choisissant activement de les afficher.

Ce n’est pas une question d’encourager les réseaux à renforcer les bulles existantes, c’est le résultat d’une demande réelle de nombreux utilisateurs de ces réseaux (je pense surtout à Instagram) qui n’en peuvent plus de se faire insulter gratuitement ou de voir leurs posts déborder de commentaires toxiques, et qui n’ont aucun outil à leur disposition pour faire le tri.

Du coup, je ne vois vraiment pas le souci. On est pas du tout dans une logique de renforcement de la bulle. Il ne s’agit pas ici de filtrer les commentaires qui n’abondent pas dans ton sens, ou qui proposent une opinion différente, il s’agit purement et simplement de ne pas afficher des commentaires gratuitement insultants et ne présentant aucun intérêt conversationnel.

On en reparlera si un tel outil se présente. Mais ce n’est pas du tout l’objectif de celui-ci. Et c’est en ça que l’expérience est intéressante et différente des filtrages classiques qu’utilisent les réseaux sociaux. Et j’insiste : ce n’est encore qu’une expérience, pas un produit fini 100% efficace.

1 « J'aime »

Il existe déjà, il est là, qu’est ce qui m’empêche de l’entrainer pour faire disparaitre des mots comme « racisé », « noirs », des idées de gauche comme « lutte des classes » ou encore « ouvrier » (Raccourcis faciles mais tu saisit l’idée)

Je saisis l’idée, mais encore une fois, ce n’est pas son but. Les algorithmes du genre existent depuis longtemps, c’est l’usage ici qui est intéressant et qui est justement différent de ce que tu décris. Ici, la volonté, c’est de développer un outil qui puisse justement faire la part des choses entre toxicité et avis divergent, ce qui est loin d’être simple.

1 « J'aime »

Qui décide alors ce qui est avis divergent et toxicité?

Ben euh… C’est justement toute la problématique qui motive le boulot sur cet outil. :grin:

Et c’est en ça que je trouve la démarche intéressante : pouvoir déterminer avec le plus de certitude possible si un commentaire est, dans le contexte, juste toxique (= inutile) ou s’il renferme une part d’information intéressante dans la discussion.

donc c’est l’outil, mais il n’apprend pas seul, il a besoin d’un référentiel, et ce référentiel, tu le laisse à la libre appréciation du lecteur, qui va l’utiliser, de manière volontaire ou non ^pour renforcer sa bulle

J’abandonne.

5 « J'aime »

Shit
En tout cas, y a du boulot

C’est bien pour ça que c’est encore estampillé expérimental. C’est toute la différence entre un produit fini, qu’on peut critiquer sur son efficacité, et une idée qui, à mon sens, mérite qu’on s’y intéresse au delà de la caricature, juste pour voir si ça peut fonctionner ou pas, avant de la rejeter en bloc en lui prêtant des intentions néfastes.

1 « J'aime »

En fait si il fait disparaitre les commentaires de flavou990, je l’installe direct le truc.

Merde mon commentaire dégage aussi. Putain c’est trop fort.

4 « J'aime »

Il y a sur Twitter (que je connais bien pour y avoir passé beaucoup trop de temps, mais je suppose que pour les autres réseaux sociaux c’est identique) des gens qui sont en guerre permanente pour une cause.
J’insiste bien sur ces trois mots parce qu’ils font de ces gens une plaie pour l’utilisation de l’outil qu’est un réseau social. Ils sont violents (verbalement), de façon assumée parce qu’ils pensent que la cause qu’ils soutiennent le mérite, et ça imprègne une part importante de leur activité en ligne. Et c’est épuisant. Parce que discuter n’est pas combattre.
Malheureusement ces gens disent aussi des choses intéressantes, et la cause qu’ils défendent peut être juste, donc les bloquer pose aussi problème.
Mais il y a une part de leur publication qu’on ne veut plus voir. Si vous avez vu le docu “Behind the curve”, sur les platistes, il y a une séquence où ils énoncent l’isolement social où les a conduits leur combat. Ils ne voient plus leur famille, ils ne voient plus leurs amis… Mais qui voudrait d’un mec qui t’entreprend à chaque apéro sur le fait que tu serais un mouton croyant à une imposture ?
Sur les réseaux sociaux, c’est exactement ça. Donc masquer l’activité toxique est important, pour soi comme pour ces gens, pour ne pas les isoler, et pour ne pas s’isoler et justement se fabriquer une bulle de tranquillité.
Or les RS eux-mêmes ne font pas ça. Ils préfèrent filtrer en fonction de critères qu’ils ont établis, qui ne sont pas très clairs, et qui semblent à l’heure actuelle se baser sur l’interaction. Mais il y a des gens avec qui j’interagis peu alors qu’ils m’intéressent beaucoup (typiquement quelqu’un qui parle d’un domaine que je ne maitrise pas : je ne vais pas répondre parce que j’ai 90 % de risques de dire une connerie, mais je veux en savoir plus donc je suis avide de leurs tweets).

Donc avoir un outil qui permet de filtrer ça de façon “intelligente”, et qu’on peut régler, ça me parait être un pas dans la bonne direction. C’est justement ça qui peut éviter l’isolement.

5 « J'aime »