- Solutions
- Features
- Our use cases
- Our use cases
- pdf - Retrieve 100 information from a report
- pdf - Aggregate data from diverse documents
- pdf - Retrieve information from a paper directory
- pdf - Retrieve invoice data
- pdf - Label documents
- web - Building content from an EAN code
- web - Aggregate informations from multiple websites
- web - Create an argus from web data
- mail - Create a pre-ticket from an email
- CRM - Clean data upstream of a CRM
- Blog
- Prices
- About us
Wiker, feeding their database from web data
Context
Wiker is the first local network to connect all the actors of medium-sized or rural towns via their economic, cultural or social information in order to promote local life, its economy and its short circuits and support the sustainable development of town centers and territories.
To do this, Wiker collects relevant information from the territories from numerous internet sources (sites and open data) - some of which are accessible by API - and aggregates it into a single service. But this collection phase is time consuming and a source of errors. For example, each employee spends an average of half an hour a day checking the websites monitored, retrieving interesting information and labeling them ("event", "article" for example). The multiplicity of employees can lead to variations in labeling.
Examples of source pages
Wiker, alimentation de leur BDD à partir de données web
Contexte
Comment labelliser des documents de types variés et déterminer leur exploitabilité ?
Wiker est le premier réseau local à connecter l’ensemble des acteurs des villes moyennes ou rurales via leurs informations afin de promouvoir la vie locale, son économie et ses circuits courts et soutenir le développement durable des centres-villes et des territoires.
Pour ce faire, Wiker collecte les informations pertinentes des territoires issues de nombreuses sources internet (sites et open data) - dont certaines accessibles par API - et les agrège en un service unique.
Exemple de pages sources |
Exemple de pages sources |
Scénario utilisé
Worker de scraping et connecteurs API
Récupére les informations sur les sites web concernés
WorkerETL
Nettoie et met en forme les données
Worker Prédiction
Labellise les enregistrements
Worker
Ajoute les codes INSEE aux communes
Worker
Enregistre dans la base de données
SmartMyData - Example of final results with labeling and INSEE codes
Return on investment
Automatisation de la collecte d'informations sur une grande variété de sources | Labellisation automatique des enregistrements via un module de Machine Learning |
Diminution des risques et des erreurs liés à l’intervention humaine | Réaffectation des collaborateurs à des tâches plus enrichissantes |
Parlons ensemble de votre projet !
Scénario utilisé
1
Worker de scraping et connecteurs API
Récupére les informations sur les sites web concernés
2
Worker
ETL
Cleanses and formats data
3
Prediction Worker
Label the recordings
4
Worker
INSEE
Add the INSEE codes to the municipalities
5
Worker
Database
Save to database
SmartMyData - Example of final results with labeling and INSEE codes
(Screenshot from a Wiker table)
Let's talk about your project together! Let's talk about your project together!
Automate the collection of information from a wide variety of sources
Automatic labeling of records via a Machine Learning module
A reassignment of employees to more rewarding tasks.
A reduction in the risks associated with human intervention.