Non j’ai des experiences tout a fait similaire, aucun marchand ne sait ce qu’est XML et c’est exactement le probleme: c’est que le niveau technique demande etait beaucoup trop haut.
C’est pourtant sur un principe de “PUSH” (upload de data) que fonctionnent tous les portails de comparaison de prix qui marchent aujourd’hui
De MSN shopping, a kelkoo, monsieur prix et tous les autres. Ceux qui ont reussit sont ceux qui ont sur proposer un avantage financier assez eleve (bon deal de referal ou milieu a forte marge ajoutee), un traffic consequent tres rapidement (plusieurs milliers de transactions par jour), et surtout un solution au niveau technique TRES bas. La valeur ajoutee “Agregation de prix” pour le client, “review”, “comparaison de produit”, etc, n’est qu’un des avantages a considerer. Ceux qui ont echoue (nous y compris dans une certaines mesure) sont tous ceux qui se sont dit que les sites d’ecommerce etait au meme niveau technique qu’eux, c’est a dire que leur metier c’etait de faire de l’informatique et pas d’etre un “vendeur de trucs” ce qui est la plus grosse connerie qu’on puisse faire. Les sites d’ecommerce qui ont reussit sont ceux qui etaient avant tous des bons vendeurs de ce qu’ils avaient decides de vendre, au sens traditionel, pas des informaticien. C’est a dire qu’ils savaient pas ce que voulait dire XML et ce qu’etait du multi tier… mais vendre du livre ou du xxx et gerer des flux de marchandises, des stocks, des marges, anticiper la demande et positioner ses offres, ca oui
C’etait strictement pareil tout les agregateurs/portails. La simple mention de XML suffisait (et malheureusement suffit encore, meme si ca baisse) a faire fuir l’ecrasante majorite des sites d’ecommerce. En gros si ils avaient une ligne de prog a faire pour etre dans ton truc ils sont contre, c’est pas du tout rentable pour eux, et de toute facon il ont la prochaine version de leur site a faire, pas le temps, “on a pas de ressources a gaspiller”, etc. Par contre un truc qu’ils peuvent filer a leur admin faisable en une requete SQL et un script, la c’est bon. Tu leur disait “dump de base de donnee en CSV ou en XLS uploadee par ftp dans tel rep tous les trois jours” et de suite t’avait tout le monde qui etait ok
La solution a ete consideree comme “pas digne d’interet a notre epoque de communication temps reel B2B rentabilite” par la plupart des CTO de la vallee (on parlait pas de webservice a l’epoque) et ce sont pourtant les seules boites qui ont survecu et qui aujourd’hui se vendent pour des millions (voir kelkoo). Les boites a haute niveau de cooperation technique qui ont pseudo reussit sont celles qui avaient des marches verticaux tres cibles (genre les bids industrielles de pieces de fabrications pour un type d’usine donnees) parceque: 1) les enjeux sont tres concentres 2) les sommes mises en jeu par transaction ont rien a voir 3) le client est un profesionnel qui est pousse a faire un effort consequent pour ameliore sa rentabilite.
Apres plusieurs annees d’agregateur de transaction (redcart) plusieurs annees d’agregateur de donnees (MSN shopping) et les galleres sur la mise en place du moteur de promo de MSN et tout c’est clairement l’experience que j’en retire toujours ![]()
Le boulot entier de Redcart (la startup ou j’ai taffe que MS voulait racheter) etait base sur l’ecriture d’un moteur d’extraction/robot de publication a base de regex, avec plus de 120 marchands aux prix/transactions automatisees dans le robot. Le concept meme venait du fait qu’il etait hors de question d’installer quoi que ce soit chez le marchand ou de leur faire developper une quelconque interface… Toujours est il que a une echelle rentable un sniffer de sites est pas viable du tout, sachant qu’a un moment donne t’en a toujours a peu pres 10 a 15% de casses et que l’ecriture de regex solide est un travail trop complique pour etre confie a des singes sous payes (sans compter que c’est chiant comme la mort de faire un wrapper pour www.jevendsdesbaskets.com). L’ecriture d’outil generant des regex automatiquement est envisageable mais fait monter les taux d’echec de facon plus que significative, le temps de reactivite accrue peut rendre l’operation valable cela dit…
L’echec vient trop souvent du fait qu’on veut trop en faire (et a MS on est pas a l’abri…) et qu’on a des ambitions irrealistes sur les capacites des partenaires. L’informatique a de rare exception pres est un outil pour mieux gagner de l’argent avec son vrai metier et pas une fin en soi, les sous ils viennent d’ailleurs, et les gens duquel ils viennent sont pas informaticiens. La lecon que moi j’en retire c’est que niveau technique sur le web comme ailleurs, vaut mieux faire debile et tres large, que ce qui peut paraitre etre l’ideal, le state of the art, mais qui inaccessible a mort. Et que on a toujours tendance a surestimmer ce qui va “passer”, moi le premier. XML, qui est un con format de fichier texte, est a peine sortie de la categorie inaccessible pour le plus grand nombre… d’ailleurs ASP.Net comme les autre font tout pour que personne n’ait a y mettre les doigts et qu’on puisse communiquer en deux lignes de code. C’est meme pas un question de rendre les choses plus facile et moins contraignantes a faire, c’est une question de permettre les choses… c’est dire le niveau…
Ce message a été édité par GloP le 06/10/2004