Nos références


Hyphe

Indexation de contenu web et déploiement automatisé sur OpenStack

Hyphe est un crawler web conçu pour les chercheurs en sciences sociales, et développé par le médialab de Sciences-Po.

Nous y avons ajouté les fonctionnalités suivantes :

  • Indexation textuelle automatique des corpus web par extraction puis indexation multiprocess des contenus dans ElasticSearch
  • Déploiement automatique de serveurs Hyphe chez des hébergeurs compatibles OpenStack

Un projet de Code et Données ouvertes

  • Humanités numériques
  • Python
  • ElasticSearch
  • JavaScript
  • DevOps
  • OpenStack
  • Tests fonctionnels du processus d'indexation
  • Configuration du serveur Hyphe à déployer (Hyphe Browser)
  • Choix des capacités du serveur cloud à déployer (Hyphe Browser)
  • Tests fonctionnels du processus d'indexation

    Cross
  • Configuration du serveur Hyphe à déployer (Hyphe Browser)

    Cross
  • Choix des capacités du serveur cloud à déployer (Hyphe Browser)

    Cross

Configuration management database

Exploration d'une CMDB à l'aide de réseaux égocentrés

Un des plus grands groupes industriels français possédant l'intégralité de son système informatique (CMDB) dans une base Neo4j, avait besoin d'une interface d'exploration de son infrastucture.

L'application se compose d'un moteur de recherche, et d'une page pour chaque noeud du graphe, présentant son voisinage et ses métadonnées. Pour avoir un moteur de recherche efficace (tolérance d'erreurs, recherche sur différents champs), nous avons indexé les données dans un ElasticSearch.

L'interface est développée avec Angular, et Node pour l'API - le tout avec TypeScript.

Un projet de Développement sur-mesure

  • Industrie
  • Neo4j
  • ElasticSearch
  • Angular
  • Sigma.js
  • Page de recherche, à travers les différents types de noeuds
  • Page d'un noeud, avec son réseau égocentré, la liste de ses voisins directs et ses métadonnées
  • Exploration des réseaux en plein écran
  • Page de recherche, à travers les différents types de noeuds

    Cross
  • Page d'un noeud, avec son réseau égocentré, la liste de ses voisins directs et ses métadonnées

    Cross
  • Exploration des réseaux en plein écran

    Cross

HOPPE-Droit

Explorer une collection d'ouvrages pédagogiques en droit français du XIXe-XXe siècles

HOPPE-Droit vise à l’élaboration et la publication d'une collection de notices bibliographiques de productions pédagogiques en droit des XIXe et XXe siècles. Nous avons conçu et développé un outil d’exploration qui permet d’étudier les évolutions du droit français à travers les manuels utilisés pour son enseignement depuis le XIXe siècle.

Le corpus est édité par l'équipe CUJAS dans la base de données Heurist. Ces données sont exportées par l'API et indexées dans un ElasticSearch en prenant soin de conserver la complexité des dates aux différents niveau de précision (date annuelle, au jour près) et d'incertitude. Une application web permet d'explorer et visualiser le corpus sous différents angles: productions, auteurs, éditeurs, réseaux de co-publication, généalogies...

Un projet de Développement sur-mesure

  • Humanités numériques
  • Visualisation de données
  • Conception
  • ElasticSearch
  • React
  • Heurist
  • Sigma.js
  • Recherche par facettes des auteurs de la collection
  • Réseau auteurs-éditeurs liés par leurs productions pédagogiques communes
  • Généalogie d'un éditeur retraçant les association, acquisition...
  • Recherche par facettes des auteurs de la collection

    Cross
  • Réseau auteurs-éditeurs liés par leurs productions pédagogiques communes

    Cross
  • Généalogie d'un éditeur retraçant les association, acquisition...

    Cross

RadioPolice

Analyse visuelle et extraction sémantique des thèmes d'un corpus de tweets

En réponse à un besoin d'analyse sémantique d'un corpus de tweets, nous avons mis en place une chaîne d'extraction de thèmes de ce corpus, par analyse des cooccurrences et filtrage de tokens par CHI². Nous avons également sorti un outil en ligne pour explorer les communautés thématiques, sous forme de réseaux de cooccurrences des termes.

Dans le cadre de la publication du corpus par David Dufresne et le journal Mediapart, nous avons ensuite proposé l'usage d'ElasticSearch et Kibana pour former des requêtes correspondant à chacun des thèmes définis par l'équipe éditoriale, et aggréger les indicateurs représentés dans l'interface finale conçue et développée par WeDoData, Etamin Studio et Philippe Rivière / Visions carto.

Un projet de Valorisation de données

  • Journalisme de données
  • Python
  • Traitement Automatique de la Langue
  • Science des données
  • Analyse visuelle
  • ElasticSearch
  • Kibana
  • Réseaux de cooccurrence de termes du thème "(il)légitimité"
  • Voisins de "palet" dans le réseau de cooccurrence des termes significatifs
  • Construction du thème "outrage" à l'aide d'une requête dans Kibana
  • Réseaux de cooccurrence de termes du thème "(il)légitimité"

    Cross
  • Voisins de "palet" dans le réseau de cooccurrence des termes significatifs

    Cross
  • Construction du thème "outrage" à l'aide d'une requête dans Kibana

    Cross

Exposition-test

Spécifications de l'infrastructure de données d'une exposition interactive

Nous avons conçu l'infrastructure des données d'une exposition observant ses visiteurs : spécifications des flux de données depuis les systèmes de captation, jusqu'aux mur-écrans projetant les visualisations en passant par les processus d'analyse, d'archivage et de rendus graphiques.

L'exposition ayant été annulée à cause de l'épidémie de COVID-19, nous n'avons pas pu passer en production pour le moment.

Un projet de Conseils et accompagnement

  • Humanités numériques
  • Données temps réel
  • Visualisation de données
  • Conception
  • Architecture
  • Extrait du schéma de l'infrastucture de données
  • Extrait du schéma de l'infrastucture physique
  • Extrait du schéma de l'infrastucture de données

    Cross
  • Extrait du schéma de l'infrastucture physique

    Cross

Tableaux de bords de suivi de production

Développement de plugins métier pour Kibana

Notre client, un acteur industriel, voulait distribuer des tableaux de bord dans un de leur produit. Après une brève étude, Kibana a semblé la meilleure option, mais manquait certaines fonctionnalités.

Nous avons développé un plugin pour Kibana avec ces fonctionnalités (intégration des tableaux de bords dans une page sur mesure, styles personnalisés).

Un projet de Conseils et accompagnement

  • Industrie
  • Kibana
  • ElasticSearch
  • Tableau de bord

TOFLIT18

TOFLIT18 est un outil d'exploration visuelle du commerce par marchandise de la France au XVIIIe siècle. Nous avons amélioré cet outil créé par le médialab de Sciences Po en optimisant les requêtes Neo4j et en ajoutant une table de données de flux de commerce ainsi qu'un système de permaliens.

Un projet de Code et Données ouvertes

  • Humanités numériques
  • Neo4j
  • JavaScript
  • React
  • Les flux de commerce exportés depuis Nantes entre 1720 et 1780
  • Optimisation du calcul du taux de couverture des classifications
  • Le permalien du réseau de termes des exports de Nantes au XVIIIe siècle
  • Les flux de commerce exportés depuis Nantes entre 1720 et 1780

    Cross
  • Optimisation du calcul du taux de couverture des classifications

    Cross
  • Le permalien du réseau de termes des exports de Nantes au XVIIIe siècle

    Cross

RICardo

RICardo est un projet de recherche dédié au commerce entre les nations, de la Révolution industrielle à la veille de la Seconde Guerre mondiale.

Nous avons amélioré l'application web existante :

  • Refonte des visualisations existantes
  • Nouvelles visualisations des taux de change et des statuts politiques
  • Ajout de permaliens avec les paramètres des visualisations sur toutes les pages

Lire notre post de blog "De nouvelles visualisations pour RICardo" pour découvrir les détails de cette prestation.

Un projet de Valorisation de données

  • Humanités numériques
  • Visualisation de données
  • Conception
  • JavaScript
  • AngularJS
  • Cette frise incite à considérer le contexte géopolitique dans l'analyse du commerce
  • Utilisation d'une heatmap pour comparer l'importance relative des partenaires commerciaux
  • Exploration de la base de taux de change par des small-multiples
  • Cette frise incite à considérer le contexte géopolitique dans l'analyse du commerce

    Cross
  • Utilisation d'une heatmap pour comparer l'importance relative des partenaires commerciaux

    Cross
  • Exploration de la base de taux de change par des small-multiples

    Cross

Paiement en ligne et e-commerce

Nous avons participé au développement du tunnel de paiement d'un des plus gros sites français de e-commerce, en Clojure et ClojureScript.

Un projet de Conseils et accompagnement

  • Industrie
  • Clojure
  • ClojureScript
  • Performance Web

Sous-traitant Neo4j

Nous intervenons pour le compte de Neo4j chez plusieurs de leurs clients pour les assister dans leurs projets de graphes. Cela va de la mission d'expertise sur Neo4j ou de chargement et/ou de visualisation de données, à la réalisation d'innovation labs, de prototypes, voire de projets web complets.

Un projet de Conseils et accompagnement

  • Neo4j
  • Visualisation de données
  • Conception

Bibliograph

Bibliograph est un outil en ligne que nous avons créé avec et pour Tommaso Venturini dans le but d'équiper ses recherches sur les dynamiques des communautés scientifiques. Notre mission consistait à reproduire une méthode d'analyse par co-références déjà implémentées en python dans un outils en ligne allant jusqu'à l'exploration visuelle des réseaux produits. Une contrainte très forte de temps nous a poussé à choisir de réaliser ce projet en un atelier intensif colocalisé avec le client. En naviguant entre idées et contraintes à l'aide d'une méthode agile nous sommes parvenu à produire un outil simple et efficace de scientométrie conforme au besoin en un temps très court.

Un projet de Valorisation de données

  • Humanités numériques
  • Analyse visuelle
  • Conception
  • JavaScript
  • React
  • TypeScript
  • Sigma.js
  • Graphology
  • Première étape: importer un corpus au format CSV.
  • Après parsing et indexation: définition des filtres.
  • Enfin, le réseau de co-référence avec des noeuds de métadonnées est visualisé.
  • Première étape: importer un corpus au format CSV.

    Cross
  • Après parsing et indexation: définition des filtres.

    Cross
  • Enfin, le réseau de co-référence avec des noeuds de métadonnées est visualisé.

    Cross

Une nouvelle version de Graph Commons

Nous accompagnons l'équipe Graph Commons dans le développement d'une nouvelle version de leur plateforme de carthographie, analyse et partage de données-réseaux. Nous tavaillons d'abord sur une reprise du code existant pour un passage à React et à une mise à jour des versions de la stack Ruby-Neo4J. Notre but sera ensuite de développer de nouvelles fonctionnalités notamment en utilisant les librairies Graphology pour l'analyse de réseaux et d'intégrer un nouveau design en cours de création.

Un projet de Conseils et accompagnement

  • JavaScript
  • Graphology
  • React
  • Neo4j
  • Ruby
  • Visualisation de données
  • DevOps
  • Architecture

La numérisation de la vie quotidienne pendant la pandémie

Nous avons développé une application web qui permet à une équipe de recherche d'analyser un corpus d'observations ethnographiques en permettant de naviguer et qualifier le matériel collecté. Ce corpus a été collecté pendant le confinement lié au COVID-19 entre avril et juin 2020 au Danemark. Il contient 222 entretiens, 84 journaux, et 89 observations de terrain.

Cette étude fait partie du projet "The Grammar of Participation: The Digitization of Everyday Life During the Corona Crisis" qui a été mené par des chercheurs du Centre for Digital Welfare de la IT University of Copenhagen et du Techno-Anthropology Lab de la University of Aalborg.

Cet outil n'est pas accessible publiquement. L'accès aux données est réservé à l'équipe de recherche. Les copies d'écran ci-dessous ont été réalisé avec de fausses données.

Un projet de Valorisation de données

  • Humanités numériques
  • JavaScript
  • React
  • TypeScript
  • ElasticSearch
  • Un moteur de recherche de passage d'entretiens et d'observations de terrain
  • Chaque document du corpus a sa propre page web.
  • Les documents ont été découpés en segment. Chaque segment peut être référencé et qualifié par des tags.
  • Un moteur de recherche de passage d'entretiens et d'observations de terrain

    Cross
  • Chaque document du corpus a sa propre page web.

    Cross
  • Les documents ont été découpés en segment. Chaque segment peut être référencé et qualifié par des tags.

    Cross

Explorer les professions de foi des élections législatives de la Ve République

Depuis 2013 des équipes de la Direction des ressources et de l’information scientifique (DRIS) et du Centre de recherches politiques (CEVIPOF) pilotent les archives électorales de Sciences Po (Archelec). Dans ce cadre ils souhaitaient publier une collection unique de professions de foi des candidat⋅e⋅s aux élections législatives de la Ve République.

Après avoir publié leur collection sur Internet Archive, ils nous ont confié la conception et le développement sur-mesure d'une application d'exploration du corpus permettant d'exploiter la très riche qualification des plus de trente mille documents. Nous avons développé une application web qui permet de filtrer les profession de fois par élection, circonscription, groupe politique, profil des candidat⋅e⋅s...

Les résultats du filtrage sont ensuite explorable en liste, en visualisations de données ou à télécharger en CSV. Enfin le document originale est consultable grâce au lecteur fourni par Internet Archive. Ainsi les choix d'indexation faits par les documentalistes du projet peuvent être confrontés au document source.

Un projet de Valorisation de données

  • Humanités numériques
  • JavaScript
  • React
  • TypeScript
  • ElasticSearch
  • Un moteur de recherche par facettes de professions de foi des candidat⋅e⋅s aux élections législatives
  • Répartition visuelle des documents sélectionnés par année et par département.
  • Visualisation des profils des candidat⋅e⋅s: pyramide des âges, professions, soutiens...
  • Pour une profession de foi, les métadonnées peuvent être comparées au document original hébergé par Internet Archive.
  • Un moteur de recherche par facettes de professions de foi des candidat⋅e⋅s aux élections législatives

    Cross
  • Répartition visuelle des documents sélectionnés par année et par département.

    Cross
  • Visualisation des profils des candidat⋅e⋅s: pyramide des âges, professions, soutiens...

    Cross
  • Pour une profession de foi, les métadonnées peuvent être comparées au document original hébergé par Internet Archive.

    Cross

Vous souhaitez voir plus en détails notre offre ?

Découvrez nos services