Analyse
Domaine Abonnez vous au flux RSS associé Archive RSS
Actu marché
- Virginie Boillet

Les entreprises sont aujourd’hui obligées de développer des applications mobiles afin d’augmenter le taux d’achat des clients et de s’adapter aux nouveaux modes d’usages du mobile au travail. En raison de la multiplication des types de smartphones et du développement des systèmes d’exploitation Android et Windows 8, le cabinet d’études américain Gartner prédit que d’ici 2016, plus de 50% des applications mobiles seront hybrides. La technologie hybride est l'avenir des applications, notamment dans l'édition de contenus.

Tags : mobilité
Conférence
- Virginie Boillet

L’ouverture des données publiques fait régulièrement l’objet de concours d’applications basés sur la réutilisation des données publiques. Etalab, qui gère le portail data.gouv.fr, a créé Dataconnexions, afin d’encourager à la réutilisation des données publiques, au niveau national. Le second concours Dataconnexions, lancé en septembre 2012 et clôt en décembre 2012, a permis de recevoir plus d’une trentaine de projets de réutilisation des données publiques, avec une spécificité pour ce Dataconnexions#2 : la création d’une nouvelle catégorie thématique dédiée aux services et applications concernant « la mobilité et les territoires ».

L’objectif de ces « hackhatons » est de faire rencontrer l’offre et la demande de données publiques, afin de créer un véritable marché de la réutilisation des données publiques en France. En effet, les critiques faites aujourd’hui sur l’Open Data français est qu’il est dans une logique d’offre et n’analyse pas quelle est la demande. Des données sont ouvertes par des organismes publics sans analyse en amont des réels besoins des citoyens et des entreprises. Comme serdaLAB a pu le constater dans son enquête, il est difficile pour les organisations publiques d’identifier quelles sont les données qu’elles peuvent mettre à disposition pour réutilisation. Les données qui ont été libérées dans un premier temps sont des données peu sensibles. Les données les plus intéressantes, ne sont pas mises à disposition. De fait, les applications grand public créées jusque-là ont uniquement servi la notoriété de leurs créateurs, mais très peu leur porte-monnaie. Exception faite des grands éditeurs d’information professionnelle, le marché de la réutilisation des données publiques est encore un marché qui cherche un modèle économique viable.
On attend la seconde phase de l’Open Data, qui devrait libérer des données plus « qualitatives » et plus complexes. C’est, en tout cas, ce qu’a promis le nouveau directeur de le SGMA (Secrétariat Général pour la Modernisation de l’Action Publique).
Les gagnants du second concours Dataconnexions seront dévoilés, lors d’une conférence, le jeudi 07 septembre 2013. Plusieurs tables rondes seront organisées : Table ronde n°1  « L’Open Data au service des territoires et des nouveaux usages de proximité »  (Avec François Bourdoncle (Exalead),  Jean-Louis Missika (Mairie de Paris), Hélène Lebedeff (Véolia Environnement), Pierre Martinerie (Département de Saône-et-Loire, Open Data France), Anita Iriart Sorhondo (Orange). L’Institut Harris Interactive présentera « Point d’opinion : les Français et l’Open Data ». Une deuxième table ronde aura pour thème : « L’Open Data au service de la mobilité et des transports » (Avec Pascale Buch (Ministère de l’écologie, du développement durable et de l’énergie),  Stéphane Levesque (Union Routière de France), Jean Ferré (Microsoft), une start-up Lauréate de la catégorie « Mobilités et territoires »).

Plus d’informations sur le marché de la réutilisation des données publiques

Programme de la journée du 07 février 2013


Catégories : Conférence, Analyse, Data, France
Avis d'expert
- Virginie Boillet

Article posté par Bibliobsession sur son blog :

Vous connaissez peut-être Unglue-it, cette excellente initiative de libération des livres. Le principe est simple et bien expliqué par Lionel Maurel : Unglue.it agit comme un intermédiaire qui propose à des titulaires de droits sur un ouvrage déjà édité (auteur et éditeur) de fixer un prix en contrepartie duquel ils accepteraient de placer l’oeuvre sous licence Creative Commons (en principe la CC-BY-NC-ND : reproduction et diffusion permises, mais sans usage commercial et sans modification).
 
Une fois un accord trouvé, la plateforme Unglue.it permet de lancer une campagne de financement, afin de réunir la somme demandée dans un temps donné. En cas de succès, les titulaires de droits s’engagent à publier l’ouvrage sous forme de livre numérique, gratuitement, sous licence Creative Commons et sans DRM. La somme demandée couvre donc à la fois la réalisation du livre numérique et un forfait pour « compenser » la libération de l’oeuvre.
 
L’idée est simple et efficace : l’intérêt d’une communauté pour un livre finance une fois pour toute sa libération juridique tout en permettant une opération économique viable pour l’éditeur. L’éditeur fixe le montant initial et l’intermédiaire prend une commission. A la fin du processus, les internautes ont créé une ressource informationnelle capable de devenir un bien commun de la connaissance par l’appropriation communautaire dont il peut faire l’objet, relativement à la communauté qui en a financé la transformation ! Une nuance cependant, la licence creative commons utilisée est l’une des plus restrictive, elle ne permet ni un usage commercial ni une oeuvre dérivée. Or la licence la plus favorable aux développement de biens communs de la connaissance est celle qui permet tous les usages, surtout les oeuvres dérivées et le partage à l’identique. Le système fonctionne depuis quelques mois, mais il faut bien reconnaître que le choix des titres n’est pas toujours des plus intéressants et qu’il est parfois difficile de mobiliser une communauté autour d’un titre…
 
Mais que se passerait-il si la libération portait non pas sur des titres mais bien sur des corpus de titres scientifiques ? C’est l’excellente idée qu’a eu Knowledge Unlatched. Le système n’est pas encore lancé, mais la structure existe. La promesse est similaire sauf que cette fois ce ne sont plus les internautes mais les bibliothèques qui, par l’achat de corpus, financent la libération pour TOUS des contenus scientifiques. Un programme pilote de 3 ans est lancé, il permettra de déterminer le juste prix et d’affiner le modèle économique. Evidemment, l’intermédiaire comme l’éditeur prennent une commission sur le prix de la libération.
 
A l’heure où on cherche activement à montrer que la voie platinum de l’Open Access est économiquement viable, voilà qui va en intéresser plus d’un. La voie Platinum est ainsi définie par le Conseil scientifique d’OpenEdition :
 

Nous manifestons notre préférence pour une troisième voie pour le libre accès. La voie appelée platinum est celle d’une édition en libre accès qui permet aux auteurs de publier et aux lecteurs de lire sans obstacle financier. Pour financer un tel modèle, diverses modalités existent, recensées par l’Open Access Directory. Nous privilégions un modèle hybride, le modèle  Freemium, dans lequel le texte est en libre accès, mais un ensemble de services à forte valeur ajoutée sont par ailleurs commercialisés. C’est dans cette optique qu’OpenEdition a lancé en 2011 OpenEdition Freemium pour les revues, et lancera fin 2012 un programme Freemium pour les livres (OpenEdition Books)
 
Voilà donc le genre de modèle qui montre que les biens communs de la connaissances et l’Open access ne résument pas à de gentils défenseur de l’internet ouvert ou de gentils défenseurs de services publics désargentés… Or les licences Nationales qui consistent à acheter au niveau de l’Etat des contenus sous droit pour les libérer dans les bibliothèques sont souvent considérées par les bibliothécaires comme une forme de libération ultime. Pourtant, elles font pâle figure face à une voie platinum à grande échelle telle que la propose Knowledge Unlatched. Et si au lieu de financer une libération pour les publics actuels des bibliothèques : pour les étudiants et les chercheurs estampillés comme tels, on considérait que la libération devait avoir lieu pour tous les citoyens donc tous les internautes ?
 
La démarche de l’Open Access n’est plus un supplément d’âme, on a changé d’échelle ! L’objectif stratégique suivant est énoncé par Mme Fioraso, Ministre de l’Enseignement supérieur et de la Recherche.
 

« L’information scientifique est un bien public qui doit être disponible à tous, sans restriction d’accès, et dont les bénéfices doivent être partagés par tous. Le secteur des publications scientifiques a connu de profonds bouleversements liés à la fois à l’internationalisation de la diffusion des savoirs scientifiques et à l’apparition de quelques grands groupes d’éditeurs qui ont imposé à l’ensemble des établissements d’enseignement supérieur et de recherche des augmentations tarifaires importantes.
 
Dans le même temps, les scientifiques ont exploré des modes plus directs de diffusion de leurs travaux. Ils ont été soutenus par leurs institutions et parfois encouragés par les gouvernements. Progressivement, plusieurs modèles de libre accès se sont développés, le mode de l’Open Access ou accès libre apparait sans conteste la nouvelle façon de diffuser l’information scientifique.
 
Il y a de rares moment ou en dehors de toute considération partisane, une partie de la classe politique fait son boulot : elle fixe le cap des politiques publiques. L’anglais distingue d’ailleurs l’arène partisane de la politic au nécessaire temps long de la policy (politiques publiques).
 
Le changement est profond! C’est désormais officiel : la fonction des outils de politiques publiques que sont les bibliothèques universitaires n’est plus de « donner accès à » mais bien de « libérer des contenus  POUR TOUS ». Vous travaillez en bibliothèque publique ? Sentez-vous concernés, avec plus de 80% d’une classe d’âge qui fait des études supérieures, ce serait irresponsable de dresser des frontières étanches.
 
Mesurons l’abîme entre cette démarche et le désarroi stratégique d’une BnF qui encapsule du patrimoine commun du domaine public au bénéfice de quelques marchands sélectionnés. Je m’associe au collectif SavoirsCom1 pour critiquer ces Accords. Il s’agit pour la BnF, dans le cadre du grand emprunt de vendre des licences d’accès à des bibliothèques. On vend des accès en créant des enclosures artificielles sur le domaine public. C’est bien pour ça que la démarche est choquante alors même que le domaine publique n’est la chose de personne (Res nullius).
 
Dans ce système, les bibliothèques accumulent des trésors derrières des forteresses artificielles qui sont au coeur d’un modèle économique dépassé. La démarche est strictement opposée à une voie platinum qui libère les contenus tout en se rémunérant sur autre chose que la barrière d’accès.
 
L’idée sous-jacente qui autorise, voire justifie la démarche de la Bnf est rarement explicitée. Elle est pourtant très commune chez les bibliothécaires et très dangereuse : les publics attirés par ces trésors franchiront les forteresses, d’une manière ou d’une autre. Comme nos établissements sont très souvent évalués à la lumière de leur fréquentation in situ à partir d’une communauté territoriale ou académique, le lien est vite fait : des données exclusives attirent, et le libre accès numérique éloigne des lieux. Misère de l’évaluation des performances des services publics par la dramatique absence de réflexion sur les objectifs et leur évaluation.
 
Pour mémoire ce schéma permet de comprendre en un éclair qu’une évaluation par la fréquentation n’est rien sans l’inscription d’une politique publique dans un contexte social et l’existence d’objectifs opérationnels. Désarroi stratégique, oui.
 

On voit bien ici que la réponse à un « enjeu public » en haut à gauche du schéma ci-dessus est formulable comme suit : favoriser la diffusion du Patrimoine commun, en tout cas tel qu’il est proclamé par tous les Ministres de la Culture et par les directions d’établissements. Ce qui se passe c’est qu’il est effacé par un objectif contradictoire et moins avouable des seconds par rapport aux premiers : maintenir la fréquentation du lieu pour sauvegarder les budgets. Si l’enjeu stratégique d’une meilleure diffusion du patrimoine commun était vraiment traduite en objectifs opérationnels, alors jamais de tels accords n’auraient pu être signés.
 
Voilà un problème, au delà de la BnF qui guette toutes les bibliothèques… Combien de fois ai-je lu par exemple des phrases déplorant la fermeture des bibliothèques anglaises ? Il faut pourtant savoir que la plupart des bibliothèques fermées étaient des placards à balais avec quelques livres dedans dont la fermeture était justifiée. L’objectif défendu par était-il : garder un nombre de bibliothèques le plus élevé possible sur un territoire ? Ou était-il : concentrer les moyens pour que les bibliothèques ouvertes soient les plus efficaces par rapport aux enjeux auxquels elles répondent ? Qu’il y ait eu des fermetures par pure économie est un fait, mais à trop déconnecter les moyens des objectifs on finit par défendre l’indéfendable.
 
Il y a aussi de l’ironie à voir l’intérêt que suscitent les troisièmes-lieux et le refus d’envisager ce que porte le concept même de tiers-lieux : une approche intégrée des services publics avec forte participation des habitants… et mon petit doigt me dit que ça ne se fera pas sans « quelques transformations » sur les territoires. Le déplorer c’est une chose, anticiper est une autre non ? Attention n’y voyez pas une position de surplomb de ma part, je n’ignore pas combien les réformes sont difficiles, j’exprime juste un ras-le-bol devant la question des moyens portée en bandoulière.
 
Ajoutons que l’évaluation à partir de la fréquentation du lieu est renforcée par un sous-entendu qui relève carrément selon moi de l’ethnocentrisme de classe : ceux qui identifieront les trésors et sauront franchir les forteresses pour y accéder, et le méritent. Nous voilà ramenés des années en arrière, au pires heures des intermédiaires exclusifs qu’étaient les établissements gérant jalousement des accès aux Trésors Nationaux. Nous voilà en pleine violence symbolique par ceux-là même qui ont cité Bourdieu en passant des concours…
 
Le web est passé par là… et pourtant. Alors que la levée de bouclier est quasiment unanime contre les Accords BnF , on ne peut que rester effaré en lisant que l’association Wikimédia, tout en déclarant se rallier à la cause commune, propose une voie de sortie à la BnF garantissant l’égalité d’accès des citoyens :
 

Nous pensons également que le partenariat peut être amendé. En particulier, si nous nous réjouissons que les scans soient disponibles dans les murs de la BnF (où se trouvent déjà l’exemplaire originel), il nous semble important que des points d’accès existent dans les autres régions afin de promouvoir le principe d’égalité d’accès des citoyens aux services publics et à la connaissance. Or, la BnF travaille avec un réseau de bibliothèques, qui doivent donner accès au dépôt légal du web : y proposer les scans nous semble un projet raisonnable qui concilie les besoins des lecteurs et les contingences du prestataire.
 
Belle égalité d’accès que des accès au domaine public dans les murs d’un réseau de Bibliothèques partenaires, alors même que ces contenus doivent circuler librement sur le web ! Je rejoins l’analyse de Désert de sel : cette position de la part de Wikimédia est proprement sidérante. Même si le débat interne à l’association a semble-t-il été rude, on ne peut que déplorer que de telles propositions soient avancées publiquement.
 ¦Quand cesserons-nous de hiérarchiser les usages sur place et les usages à distance ?
 ¦Quand cesserons nous de penser que la performance des services publics dont nous avons la charge se mesure à la fréquentation des lieux ?
 ¦Quand arriverons-nous à construire des métriques mesurant non pas seulement l’efficacité de l’accès aux informations que nous proposons mais aussi l’efficacité des services ?
 ¦Quand déplacerons nous le centre de gravité des établissements publics culturels du prêt ou de l’accès vers des dispositifs de médiation et les services évalué quantitativement et qualitativement ? Il devient urgent de redéfinir nos objectifs de politiques publiques.
 
Si j’ai co-fondé avec Lionel Maurel le collectif SavoirsCom1 qui est sous-titré politiques des biens communs de la connaissance, c’est parce que je crois profondément (avec d’autres) que l’approche par les biens communs est de nature à ré-orienter les objectifs stratégiques des services publics du secteur élargi de l’information-documentation. Le développement du libre accès par la voie platinum est un signe positif, les accords BnF sont un symptôme de ce qu’il ne faut plus faire. Sans fétichiser le domaine public ou l’accès libre aux informations scientifiques ou patrimoniales nous considérons qu’elles sont autant de contenus potentiellement appropriables par des communautés donc des biens communs en puissance. S’il s’agit de rendre possible le développement de biens communs de la connaissance au bénéfice de tous, alors voilà le socle que nous devons élaborer et qui se déploie dans le Manifeste du collectif SavoirsCom1. A travers ce collectif et ces prises de positions, il ne s’agit pas de défendre les bibliothèques dans le vide, mais bien au-delà, de défendre ou d’élaborer des politiques publiques contextualisées permettant le développement de biens communs de la connaissance. Les bibliothèques y prendront place, sous leurs formes actuelles, ou pas.

Source : http://www.bibliobsession.net/2013/01/29/de-la-fourniture-dacces-a-la-liberation-des-contenus-repenser-nos-politiques-publiques/



Tags : open access
Tendance
- Thibaut Stephan

Les entreprises commencent à prendre conscience de la valeur des informations qu’elles ont collectées dans le cadre de leur activité.

Ainsi, d’après les estimations du cabinet Gartner, 30% des entreprises vont monétiser leurs données directement ou indirectement, à travers la vente ou l’échange d’informations. Doug Laney, Vice-président de Gartner, explique ce phénomène par « le besoin de justifier les dépenses liées au stockage et à la gestion de gros volumes de données ».

Certaines entreprises commercialisent déjà une partie de leur patrimoine informationnel ou exploitent des données diffusées par les organismes publics pour concevoir de nouveaux produits.

Cette tendance va progressivement mener à la formation d’un nouvel écosystème qui se développera pour structurer la commercialisation de l’information. Citons par exemple l’apparition de courtiers en information et de chefs de produits informationnels qui seront chargés de mettre en place des stratégies de monétisation des données détenues par les organisations.

Les consommateurs doivent valoriser les données liées à leur consommation, à leur activité et à leur profil. Celles-ci doivent donc être protégées et leur diffusion doit nécessairement être source de bénéfices, financiers ou non. A l’inverse, les entreprises qui collecteraient des données personnelles de manière abusive pourraient s’exposer à des réactions négatives de la part des consommateurs, voire à un durcissement du cadre réglementaire.

 

Plus d'informations sur les données publiques et les données d'entreprises ici

Source : Gartner

Catégories : Tendance, Chiffres-clés, Analyse, Data
Tendance
- Thibaut Stephan

Alors que les éditeurs traditionnels affichent leurs réticences au sujet des programmes de prêts de livres électroniques dans les bibliothèques, de nouveaux acteurs s’engouffrent dans la brèche. C’est le cas de Smashwords, un distributeur spécialisé dans les ouvrages autoédités et indépendants.

La Douglas County Library, bibliothèque américaine du Colorado, a annoncé l’acquisition de 10 000 titres numériques via un contrat avec Smashwords. Il s’agit d’un message fort adressé aux éditeurs : face aux pratiques tarifaires excessives et aux conditions d’utilisation restrictives, des alternatives existent pour répondre à la demande croissante du public en matière d'e-books.

Smashwords se distingue ainsi par un positionnement-prix raisonnable (4$ en moyenne) et laisse une grande liberté aux bibliothèques une fois le titre acheté, ces dernières s’engageant simplement à respecter les règles du copyright américain et donc à ne créer aucun dérivé à partir de l’œuvre originale.

Le ton est donné en ce début d’année. Il sera intéressant de suivre les réactions des éditeurs, ainsi que le comportement des bibliothèques susceptibles de prendre exemple sur la Douglas County Library. 

 

Source : Actualitté

Tendance
- Thibaut Stephan

Après Gartner, c’est au tour de Forrester de publier son rapport de prospective. « The Global Tech Market Outlook 2013 to 2014 » synthétise les projections des analystes en matière d’investissements IT ces deux prochaines années.

Tags : Big data, mobilité, IT
Tendance
- Thibaut Stephan

Bruce Orcutt, directeur marketing des produits mobiles chez Kofax, dévoile les enjeux de la capture en situation de mobilité.

Avis d'expert
- Virginie Boillet

Nous reprenons ici un article rédigé par Bertand Dupperin sur son blog. Résumé : le réseau social ne va pas mourir mais profondément muter. Ne recouvrant qu’une partie du besoin des utilisateurs, il montre ses limites, tout comme l’email. Mais plutôt que disparaitre, leurs principes vont s’intégrer dans des outils à la vocation professionnelle plus vaste et méritant enfin le statut d’outil de travail central dans le poste de travail de demain. Et en arrêtant de limiter la dimension sociale au seul réseau, l’entreprise touchera enfin pleinement les dividendes de ses projets.

Il y a quelques temps deux choses se sont passé dans la même semaine qui ont attiré mon attention sur une évolution de fonds du marché des réseaux sociaux d’entreprise.
 
La première a été un échange avec un de mes contacts suite à une annonce d’un acteur rentrant sur le marché. Sa réaction spontanée fut “ah, un nouveau  RSE ?”. Ma réponse “non…c’est”….”. En fait c’était typiquement l’application des principes sociaux au flux de travail. Mais voilà quand on dit “social” il s’avère que pour quasiment tout le monde on comprend réseau. Je vais encore une fois me référer à la distinction opérée avec beaucoup de pertinence par le Real Story Group mais networking et collaboration sont deux dimensions complémentaires de la sphère sociale mais, et l’expérience le confirme chaque jour, croire que l’un va totalement remplacer l’autre mène à de nombreuses déconvenues et est la cause de l’échec relatif de nombre de projets. Non en raison de la qualité des outils mais de leur inadaptation à leur but.
 
La seconde a été ce billet de Marc Devilard. Je conçois que la forme ait pu en irriter certains (mais dans ce monde où les messages abondent, ne faut-il pas parfois un peu surjouer pour être entendu, notamment lorsqu’on s’écarte du message consensuel mais erroné qui arrange tout le monde) mais le fonds était très pertinent. Que nous disait il ? :
"De la même manière, les réseaux sociaux se comparent à l’e-mail pour se donner du poids. Mais leur rentabilité est négative. Elle est adossée à une contradiction intrinsèque, qui est de demander aux individus de passer beaucoup de temps à être improductifs au travail."
 
Et il concluait de manière volontairement provocatrice à la mort des réseaux sociaux.
 
Et j’étais d’accord. Pourquoi ? Le social limité à sa seule dimension réseau n’est pas facteur de productivité immédiate, il crée le contexte d’une meilleure productivité future. Très utile cela ne résout pas le problème de l’entreprise qui est d’améliorer sa performance aujourd’hui et dans le futur. Ce besoin à la fois d’immédiateté et de durabilité.
 
Donc le réseau social va disparaitre. Enfin d’une certaine façon. Il va disparaitre sous sa forme actuelle en tant qu’outil limité aux activités hors flux de travail pour s’intégrer dans des outils au périmètre plus vaste couvrant l’ensemble des besoins du collaborateur. Lequel, puisqu’on parle de productivité, faisant face à un vrai problème aujourd’hui : alors que tout n’est qu’information à traiter il doit changer d’outil en fonction de la source de l’information. Lorsqu’on sait en plus que les destinataires de l’information (ceux avec qui on la traite) sont en général accessibles depuis un outil qui n’est pas celui qui la contient on voit bien le caractère fastidieux et hautement improductif de la situation.
 
Confirmation sur le terrain. J’ai la chance de travailler sur quelques projets d’ampleur en ce moment et à chaque fois le même scénario se répète. On démarre un projet réseau social mais il n’est que l’avant garde d’un projet poste de travail ou digital workplace qui le suit de près et qui se cale sur lui.
 
Un autre éditeur me disait d’ailleurs récemment qu’il préférait le terme “plateforme social business”. Pourquoi ? Parce que cela implique une foule de médias et canaux internes et externes, d’outils d’entreprise et grand public à utiliser conjointement, certains étant sociaux par nature d’autres à ramener dans le contexte social.
 
Alors, comme l’email, le réseau social va disparaitre sous sa forme actuelle mais ses principes vont rester, intégrés dans des outils à vocation beaucoup plus large qui réconcilient et rassemblent les sources d’information, leurs émetteurs et destinataires, et rendent possibles les modes d’interactions et de travail les plus divers.
 
Tout simplement parce que sous sa forme actuelle, focalisée sur le networking et les conversations hors flux de travail le réseau social a montré tout son potentiel mais également toutes ses limites et incarne une vision idéalisée mais incomplète et biaisée du travail même si elle préfigure une partie de l’avenir.
 
Aujourd’hui un projet poste de travail nécessite, bien sûr, l’intégration d’un réseau social mais également de nombreux autres composants pas nécessairement conçu pour, ce qui est une tâche complexe. Demain des outils proposeront un nombre croissant de fonctions socialisées en interne, intégreront ce qui fut l’email, les alertes métiers, les conversations “sociales” et communautaires et proposeront des connecteurs pour le reste. Idem pour les outils métier qui se socialiseront en tant que tel sans avoir besoin d’une surcouche ad hoc.
 
Le réseau social va donc devenir ce qu’il aurait du être dès le début si on ne l’avait pas conçu “contre” l’existant.
 
Comme je le disais déjà ici le futur du poste de travail est social et le réseau n’en sera qu’une partie. La question est de savoir qui gagnera la bataille du front-end : la plateforme sociale qui aspirera les activités métier ou les plateformes métier qui aspireront le communautaire comme une activité périphérique. L’avenir le dira.
 
En tout cas, une chose est certaine : arrêtons de prédire la mort de tel ou tel outil. Essayons plutôt de comprendre leurs mutations à venir.

Source : Bertrand Duperrin - http://www.duperrin.com/2013/01/04/la-fin-des-reseaux-sociaux-dentreprise/

Avis d'expert
- Virginie Boillet

Dans un document du Comité interministériel pour la modernisation de l'action publique (CIMAP), le gouvernement a réaffirmé le principe de gratuité des données publiques. Dans un contexte de réduction du budget de l’Etat et de recherche de gains par les organismes publics, on a pu croire que la gratuité des données publiques serait remise en cause.

En octobre 2012,  un article des Echos titrait « Open Data : l’Etat cherche à monétiser les données publiques ». Mais déjà, le Pacte national pour la croissance, la compétitivité et l’emploi, paru début novembre 2012, faisait état, dans la Décision n°34 du Levier 8 (Assurer une action publique exemplaire et des réformes structurelles au service de la compétitivité) que « Les données publiques (seraient) rendues accessibles gratuitement depuis le site data.gouv.fr… ». Le data.gouv.fr concerne surtout les ministères et rien n’interdit, aux collectivités territoriales, de rendre leurs données payantes. Mais cela est peu probable dans la mesure où cela ne fait pas partie de la stratégie des collectivités.

Dans tous les cas, augmenter les tarifs ou rendre payantes des données publiques initialement gratuites serait une mauvaise idée dans la mesure où toutes les études (POPSIS de Deloitte, Etla…) montrent qu’une baisse des tarifs de réutilisation des données publiques entraîne une augmentation des réutilisations. L’étude POPSIS montre même que, dans certains cas, lorsque l’acteur public a décidé de baisser à un coût marginal ou proche de zéro les coûts de réutilisation, le nombre de réutilisateurs a augmenté entre 1000 et 10000%. Baisser les coûts de réutilisation attire notamment les PME réutilisatrices. Quant à la demande, elle a explosé de + 7000%. Lorsque les prix ont seulement été baissés, les revenus de l’acteur public sont restés stables ou ont même augmenté. Les bénéfices potentiels d'une baisse de tarification sur la réutilisation des données publiques peuvent être élevés, tandis qu’en même temps, les coûts potentiels d’une baisse des tarifs semblent être faibles.


En France, le prix des licences payantes suit une tendance à la baisse voire devient proche de zéro, en tout cas, pour les réutilisations non-commerciales. Ainsi, l’Inpi a adopté une politique de diffusion gratuite de l’information brevet dès 2007, avec le lancement du service fr.espacenet.com, qui contient plus de 4 millions de demandes de brevets français, européens et internationaux. Depuis avril 2009, l’ensemble des données liées à la propriété industrielle est disponible en accès libre et gratuit. Quant au cadastre français vendu par la DGFip, il a réduit en 2011 les prix des licences de réutilisation de 97%. Le cadastre numérisé peut être consulté gratuitement sur le site www.cadastre.gouv.fr depuis octobre 2008.  Autre exemple : l’IGN a rendu le RGE (Référentiel à Grande Echelle) gratuit pour les collectivités territoriales en 2011.

Source : serdaLAB Etude Open data 2012

Actu produit
- Virginie Boillet

EVER TEAM, éditeur français de solutions intégrées de gestion de contenu d’entreprise (ECM), vient de rajouter la fonctionnalité essentielle de signature électronique à EverSuite SharePoint Edition, qui permet de donner une force probatoire à tout document géré dans Sharepoint.

Page 2 / 32 1 2 3 4 5 ... Fin
Powered by KB Crawl