Et si on faisait parler Wikipédia ?

[center][/center]

On connaissait déjà Google et Wikipédia pour le flot d’informations qui nous est servi lors de nos recherches internet. On sait aussi que la représentation qu’en font les séries et films fait beaucoup baver le geek moyen ; la recherche d’information sur un sujet précis avec des visuels et des aides contextuelles reste parfois compliquée et l’approche assez spartiate. « google define : » en reste l’exemple parfait.

En somme, pour avoir un retour simple et efficace il restait à créer l’interface. A l’image du capitaine dans Wall-E qui cherche « Earth » et se voit servir une belle dose d’images et un discours dicté par un douce voix robotique. Ou encore, plus dans mes goûts, d’un Daniel Graystone dans Caprica dernier épisode, qui cherche à en savoir plus sur ses nouveaux amis avec son fidèle (seul ?) compagnon l’ordinateur central de la maison. Toutes ces interfaces amènent la même notion, un sujet, dont la base de donnée connaît déjà le contenu essentiel, une voix synthétique qui nous parle et nous explique avec force vidéos et images pour étayer tout ça.

Qwiki, c’est exactement ça ! Ok, la reconnaissance vocale en moins, mais on peut travailler là-dessus.

Pour mieux comprendre tout de suite une vidéo.

En l’état le système ne fonctionne qu’en Anglais et affiche fièrement sur sa page d’accueil un « Qwiki knows millions of things ». J’ai bien tenté de le prendre en défaut, mais le seul reproche que je pourrais lui faire serait celui de la voix synthétique un peu nasillarde ; la promesse de l’interface comme à la TV est rempli, et c’est plutôt bluffant.

La prochaine étape ? Sûrement de dépasser la barrière des langues pour toucher un public plus vaste, et puis, il y a ce petit mockup vidéo qui fait un tout petit peu envie, non ?

[edit]

J’ajoute l�??élément qui change tout, j’ai des invitations pour l’alpha, faites suivre vos mail en MP !

J’ai eu super envie quand j’ai lu tes phrases. Puis j’ai vu que c’était qu’en alpha, ce qui m’a laissé le temps de réfléchir 15 secondes : déjà que l’interneteux moyen râle quand il y a plus de 2 paragraphes à lire, si la face “culturelle” du net se met à être une activité passive, on va quand même au devant de gros ennuis niveau concentration/réflexion des générations futures.

M’enfin, moi j’aime bien le progrès… donc je suis partagé. Je suis persuadé que c’est mauvais et très mauvais, mais ça a quand même une classe ultime.

Il y a aussi la question de la neutralité de l’information qui se pose. Où le moteur prend-il ses infos, comment les hiérarchise-t-il, comment juge-t-il lesquelles sont les plus pertinentes… En tout cas l’interface en elle-même fait rêver c’est sûr.

Je ne pense pas que ce soit le surfeur moyen. On me dit dans l’oreillette qu’il y a des gens qui ne lisent jamais voire pire qui n’ont jamais lu plus de 2 bouquins d’eux mêmes. Alors 2 paragraphes sur le net, c’est pas plus à leur portée…

Sur le site en lui même, je dirais que le projet est intéressant mais les articles sont vraiment succincts, loin de la richesse souvent d’un wikipédia mais si ça va à l’essentiel, ça peut être une ligne éditoriale. Et avec la reconnaissance vocale, effectivement ça a du potentiel pour les personnes ayant des problèmes de vue. Pour ma part je lis plus vite que la voix qui parle donc c’est embêtant :wink:

Ca peut paraître stupide comme remarque, mais suis-je le seul à avoir tilté sur le fait que la voix prononce les phrases fluidement, contrairement à ce qu’on a été habitué à entendre des voix synthétiques jusque-là (les GPS par exemple, où des bribes de phrases sont accolées pour donner les informations, avec un intervalle de temps bien distinguable entre deux bribes)?
La voix m’a aussi fait penser à celle du robot Terran de Starcraft 2

Non, parce que j’ai pas trouvé du tout que c’était fluide. Plus fluide qu’un GPS, certes, mais y’a des mots mangés, notamment dans la vidéo de présentation du post. Je me demande pourquoi c’est si dur d’ailleurs de rajouter un algorithme qui harmonise la phrase avant que les mots soient lus. Ca demande plus de ressource, certes, mais à l’heure des smartphones dual core…

Huhu.

Parce que c’est dur, en fait. Ca dépend de beaucoup de choses (accents, agencement des mots et tout), si c’était aussi bête que de faire un “smooth”, ca serait deja partout t’inquiete pas.

Aaaah mais je me doute bien que c’est pas simple, mais franchement, on est en 2010 :’(. Y’a vraiment très peu d’effort de fait sur la synthèse vocale (du moins pour le grand public).

Tout comme Gabs431, la question de la neutralité se pose.

Et le présentateur de dire tout content :
“The future of information consumption”. Ben moi désolé, mais son truc, ça me fait pas rêver… ça me révolte même.

Rien qu’en temps normal, sur un sujet qui nous est géographiquement / temporellement / culturellement éloigné, on a une masse de filtres entre écran et évènement. Filtres bénéfiques s’il s’agit de nous conforter dans une opinion, maléfiques s’il s’agit de nous informer objectivement. Si on procède par étape du fait vers le lecteur d’information, on a une certaine idée des seuils à partir desquels peuvent être mis des filtres :

  • le fait en lui même;
  • l’intelligence de l’observateur du fait : capacité d’analyse, connaissance de l’environnement du fait, émotion à même d’influencer l’observation et l’objectivité du jugement;
  • la transmission du fait entre l’observateur et le rapporteur (par ex : journaliste qui n’aurait pas été témoin direct);
  • l’esprit de synthèse et l’intelligence (voir le professionnalisme) du journaliste;
  • la ligne éditoriale et la hiérarchie du journaliste;
  • (dans certains cas, la censure);
  • liste non exhaustive (dont un bot qui sélectionne les infos dont j’ai besoin)

Personnellement, j’ai parfois peu d’estime pour la qualité d’information des dépêches AFP, alors me proposer de rajouter une couche…
Comme dans l’allégorie de la caverne, je préfère m’embêter à connaître un sujet le plus fidèlement possible, plutôt qu’on me mâche le boulot et qu’on me présente un résultat biaisé. Porter ses efforts sur le développement de la capacité de jugement des gens c’est, selon moi, ce qu’il faudrait faire, pas les rendre passifs.

Je trouve qu’il y a des démos plutôt convaincantes sur le net !

Notamment de France Télécom ou autre

Bon c’est pas la panacée mais c’est plutôt pas mal :innocent:

On ne peut plus t’envoyer de MP :stuck_out_tongue:
Mais je suis preneur d’une invit olivariusATgmail.com
Belle news !

Hou ben merde alors, j’ai vidé ma boite, ça devrait aller mieux.

Moi j’aime bien ce concept, mais c’est vrai que les informations sont succinctes. Par contre, on a le droit a des “Related” en dessous, donc ça complète si on veut aller plutôt dans telle ou telle direction, à la façon de la “roue magique” de Google.
Au niveau de la neutralité, la question se pose en effet, mais cette question se pose aussi pour un tas d’autres sources. On ne sait pas toujours qui a écrit et où il tire ses infos. Qwiki est donc une base de données supplémentaire, dont les infos doivent être croisées avec d’autres sources, sur internet ou à la bibliothèque.

PS : j’ai des invitations aussi…

Moi, si c’est GLaDOS qui me réveille le matin, je me recouche.

J’ai plus pensé à Shodan. :wink:


Concept intéressant et prometteur mais aux zones d’ombre encore trop nombreuses. La principale étant la provenance des informations. Si c’est juste une voix de synthèse qui lis le texte de wikipedia (ça s’appel Qwiki, donc ça laisse penser que les articles seront là aussi écrit par une communauté) c’est assez moyen.

plutôt que glados, je voudrais que ce soit Jarvis. http://www.livevideo.com/video/0A7DE2E5356D4EC3B95FD2E21AE1D0BC/iron-man-run-before-you-walk.aspx

edit : merci pour l’invit, je teste, c’est plutôt bien. un poil rapide parfois en anglais. une fois en français, ca fera un carton ce truc.

Comme au dessus, je n’imagine pas Qwiki comme LA source unique de toute information. Mais plutot comme UNE source (voire meme comme UN système adapté par plusieurs sources) d’informations.

Moi aussi quand je découvre un sujet je souhaite en connaitre les tenants et les aboutissants et je vais faire le tour des sites spécialisé pour tout comprendre. Et dans ce cas clairement Qwiki ne sera pas du tout adapté.

Mais parfois aussi j’ai juste besoin d’un rapide briefing (parce que c’est rien de plus qu’un briefing) sur un élément particulier et dans ce cas aller chopper wikipedia en 30 secondes ou écouter “passivement” cette présentation sont 2 alternative équitables.

Je comprend pas que immédiatement certains aient pensé que Qwiki pourrait devenir la source unique d’information.

Pas la seule source d’informations, mais celle qui demande le moins d’efforts pour être consultée (même plus besoin de lire, il suffit d’écouter et regarder des images).

Hum, je vois pas bien qui pourrait prétendre que ce soit l’unique source d’information, j’ai bien relu le thread et…non, ça serait plutôt l’inverse.

En l�??occurrence Qwiki c’est surtout, et avant toute chose, une interface.

Je vois ce site comme une espèce de proof of concept, on peut le faire. Si on veut faire plus complexe c’est sûrement possible en se basant sur ce qui a déjà été fait. Moi j’aime l’idée, dans la mesure où je trouve ça intéressant à terme de pouvoir “dialoguer” avec son ordinateur. Et alors attention, je parle pas d�??intelligence artificielle mais juste d’un IHM plus proche de l�??interaction sociale de base, parler.

Je veux bien une invit si toujours dispo : arnolanf chez jémail point comme.

Thx