Connecteur Temis Luxid pour enrichissement sémantique de OpenText Content Server.
Facilite la création d'application Big Data, améliore l'utilisation et l'optimisation de contenus non structurés.
Avec ses vocabulaires métier personnalisés la solution permet de créer des environnements d'analyse et de navigation enrichies.
Serveur web / Base de donnees Langages de développementLudovic REUS
Une présentation des outils et technologies de l'information et de la communication.
Les serveurs webs et leur marché à ce jour
Les base de données relationnelles et NoSQL
Les langages de développements informatiques
Serveur web / Base de donnees Langages de développementLudovic REUS
Une présentation des outils et technologies de l'information et de la communication.
Les serveurs webs et leur marché à ce jour
Les base de données relationnelles et NoSQL
Les langages de développements informatiques
Depuis 2007, avec des petits hauts et beaucoup de bas, c’est la grande récession. La reprise souvent annoncée n’est pas en vue, elle est plus que problématique comme le montrent les derniers développements en Europe. Dans ce cadre, les politiques d’austérité mortifères qui y sont administrées comme un remède de cheval n’ont pas la croissance pour objectif, mais bien la révision sociale tous azimuts des grandes conquêtes de la période précédente.
Retrouvez les chiffres et les explications dans le dernier diaporama d’Apex.
Journée du 25 novembre 2016 "Financer votre projet de startup" à la FrenchTech Rennes St Malo
Une description des dispositifs et aides au financement de l'innovation proposés par BPI France.
Intervention d'Emmanuel Denoue, Chargé d'affaires numérique Bretagne à BPI France
Les Chroniques de Nuremberg furent publiées en deux éditions, en latin (le 12 juillet 1493) et en allemand (le 23 décembre 1493). Elles contiennent 1809 gravures, tirées de 645 bois : il y a donc 1164 répétitions. Les Chroniques, toutefois, tirent leur splendeur de la variété, du nombre et de la taille de ces gravures dont on ne trouve pas d'autre exemple à cette époque. Cet ouvrage raconte l'histoire des hommes au fils de 7 "états du monde". Pour l'essentiel il s'agit d'une reprise des faits bibliques, mais une place non négligeable est donnée à des événements marquants plus récents, comme le passage de la comète de Halley en 684 ou l'invention de l'imprimerie. On y trouve également les personnages célèbres de l'antiquité tels que Jules César, Alexandre le Grand ou des poètes et des philosophes ainsi que des représentations de grandes cités souvent inspirées de villes allemandes.
On estime son tirage à 1500 exemplaires pour l'édition latine, et 1000 pour l'édition allemande. On a recensé en 1976 près de 800 exemplaires de l'édition latine, et 400 de l'édition allemande. De nombreux exemplaires ont été mis en couleur à la main. Ce fût sans doute le premier best seller de l'histoire du livre.
Les Chroniques de Nuremberg sont un témoin de la perfection de la typographie à la fin du XVème siècle.
280219 Webinar Reprenez le Contrôle de Vos Disques RéseauxEverteam
Stocker de l’information inutile coûte cher aux entreprises et devient de plus en plus risqué au vu des nouvelles réglementations comme RGPD. La part de données ROT (redondantes, obsolètes, triviales) est considérable. Elle représente jusqu’à 80 % de l’ensemble des données stockées dans les systèmes d’information. Les espaces de stockage sont donc devenus de gigantesques fourre-tout, que les DSI ont tendance à conserver et à backuper pour toujours, au cas où des données importantes y seraient encore stockées.
Comment alors séparer le bon grain de l’ivraie ? Comment remettre de l’ordre dans ce chaos informationnel ? Comment automatiser la détection de documents sensibles, engageants ou contenant des données personnelles sans devoir re-classer, à la main, l’ensemble de ces corpus documentaires ?
Grâce à ses fonctionnalités natives d’intelligence artificielle et d’apprentissage automatique everteam.discover vous aide en trois phases :
Analyse et extraction automatique des données sensibles
Classification automatique ou par suggestion selon votre typologie documentaire
Prise d’action et applications des bonnes politiques de rétention ou de sécurisation
Vos déchets informationnels vous coûtent de plus en plus cher et les risques de fuites de données sensibles deviennent plus importants si votre information n’est pas correctement assainie et gouvernée. Le deuxième webinar de la série “La Gouvernance de l’Information en pratique” vous aide à reprendre le contrôle de vos disques réseaux grâce à la catégorisation automatique.
Architectures et application hybrides selon vos termes et à votre propre rythmeMicrosoft
Nous croyons fermement que notre plateforme cloud - et à l’instar de celles que nos compétiteurs proposent - offre aux entreprises une alternative très intéressante à la définition et l'exploitation de leur capacité propre de centre de données, mais nous devons reconnaître dans le même temps que « le déplacement vers le cloud » est intrinsèquement un processus graduel. Par ailleurs, la plupart des applications (métier) d'aujourd'hui ne sont ni simples ni monolithiques ; elles peuvent être constituées de nombreux éléments distincts qui sont mis en œuvre sous formes de services, de composants, de « plug-ins » tiers et d'autres systèmes ou ressources. En outre, il n'est pas rare pour une application de faire usage de services exposés par des organisations partenaires, ou de services et des composants qui se trouvent à l'intérieur du réseau d'entreprise. Certains de ces éléments ne seront/pourront en fait jamais être migrés vers le Cloud pour une variété de raisons. Toutefois, la proposition de valeur du Cloud peut être intéressante pour les autres. La possibilité de déplacer des éléments constituants spécifiques dans le Cloud peut par exemple réduire les coûts d'infrastructure, les exigences de gestion et de maintenance, etc. Les applications qui en découlent sont souvent désignées comme des applications hybrides. L'intégration de l’ensemble des éléments constitutifs lorsque tous les composants sont hébergés localement dans votre centre de données n'est pas une tâche facile, et elle peut devenir encore plus difficile lorsque vous déplacez une partie des fonctionnalités de l'application dans un environnement Cloud. Les problèmes que vous rencontrez lors de leur développement ou lors de la migration d’éléments existants de vos applications sur site vers le cloud suscitent des questions telles que « Comment puis-je intégrer les différentes parties à travers les frontières de réseau et de domaines de sorte que toutes les parties coopèrent ensemble pour mettre en œuvre l'application complète ? » et « Comment puis-je optimiser les performances et la disponibilité lorsque certaines parties de l’application sont situés dans le nuage ? » Cette session se concentre sur les approches communes pour définir votre propre chemin à votre propre rythme, ainsi que sur les questions que vous rencontrerez lors de la mise en œuvre d’applications qui s'exécutent en partie dans le Cloud et en partie sur site, ou si vous décidez de migrer tout ou partie des éléments d'une application existante en local vers le cloud. Elle illustrera le propos au travers de l'utilisation des services d’infrastructure (IaaS) et de plate-forme (PaaS) de Windows Azure et, montrera comment vous pouvez profiter de ces nombreux services pour simplifier et accélérer le développement et le déploiement de ces applications: Service Bus, SQL Data Sync, Virtual Network, Access Control, etc.
Dans cette session vous découvrirez comment le couple Visual Studio 2013 et le Framework 4.5.1 augmentent votre productivité ainsi que les performances de vos applications .NET. Dans la lignée du Framework 4.5, cette dernière version offre son lot d’améliorations, parfaitement stabilisées au rythme des versions de Visual Studio. Cependant, Microsoft a décidé de livrer des packages officiels à un rythme plus rapide et plus fréquent que les versions majeures de Visual Studio. La dernière version de NuGet intégrée à Visual Studio 2013 permet de trouver plus facilement le type de package recherché. Ne manquez pas cette session et venez découvrir l’essentielle des nouveautés apportées par Visual Studio 2013 et le Framework 4.5.1.
Speakers : Michel Perfetti (Cellenza), Bruno Boucard (Cellenza)
Découvrez comment l’ECM peut concrètement « BOOSTER » votre entreprise à trav...Microsoft Décideurs IT
Relevez le défi de maitriser la gestion collaborative pilotée de l’information multicanal. Exploitez la puissance du Framework ECM « COCAPPS » pour enrichir vos applications et proposer à vos collaborateurs ou clients, de nouvelles fonctions dont le « Case Management » ; en pilotant efficacement votre production d’informations administratives, commerciales... Pour les éditeurs de logiciels ou SSII cette cession permet de réduire votre « Time to Market ». Elle est complétée par trois ateliers pratiques concernant l'usage du Framework « COCAPPS » dans les applications Microsoft SharePoint et CRM.
Depuis 2007, avec des petits hauts et beaucoup de bas, c’est la grande récession. La reprise souvent annoncée n’est pas en vue, elle est plus que problématique comme le montrent les derniers développements en Europe. Dans ce cadre, les politiques d’austérité mortifères qui y sont administrées comme un remède de cheval n’ont pas la croissance pour objectif, mais bien la révision sociale tous azimuts des grandes conquêtes de la période précédente.
Retrouvez les chiffres et les explications dans le dernier diaporama d’Apex.
Journée du 25 novembre 2016 "Financer votre projet de startup" à la FrenchTech Rennes St Malo
Une description des dispositifs et aides au financement de l'innovation proposés par BPI France.
Intervention d'Emmanuel Denoue, Chargé d'affaires numérique Bretagne à BPI France
Les Chroniques de Nuremberg furent publiées en deux éditions, en latin (le 12 juillet 1493) et en allemand (le 23 décembre 1493). Elles contiennent 1809 gravures, tirées de 645 bois : il y a donc 1164 répétitions. Les Chroniques, toutefois, tirent leur splendeur de la variété, du nombre et de la taille de ces gravures dont on ne trouve pas d'autre exemple à cette époque. Cet ouvrage raconte l'histoire des hommes au fils de 7 "états du monde". Pour l'essentiel il s'agit d'une reprise des faits bibliques, mais une place non négligeable est donnée à des événements marquants plus récents, comme le passage de la comète de Halley en 684 ou l'invention de l'imprimerie. On y trouve également les personnages célèbres de l'antiquité tels que Jules César, Alexandre le Grand ou des poètes et des philosophes ainsi que des représentations de grandes cités souvent inspirées de villes allemandes.
On estime son tirage à 1500 exemplaires pour l'édition latine, et 1000 pour l'édition allemande. On a recensé en 1976 près de 800 exemplaires de l'édition latine, et 400 de l'édition allemande. De nombreux exemplaires ont été mis en couleur à la main. Ce fût sans doute le premier best seller de l'histoire du livre.
Les Chroniques de Nuremberg sont un témoin de la perfection de la typographie à la fin du XVème siècle.
280219 Webinar Reprenez le Contrôle de Vos Disques RéseauxEverteam
Stocker de l’information inutile coûte cher aux entreprises et devient de plus en plus risqué au vu des nouvelles réglementations comme RGPD. La part de données ROT (redondantes, obsolètes, triviales) est considérable. Elle représente jusqu’à 80 % de l’ensemble des données stockées dans les systèmes d’information. Les espaces de stockage sont donc devenus de gigantesques fourre-tout, que les DSI ont tendance à conserver et à backuper pour toujours, au cas où des données importantes y seraient encore stockées.
Comment alors séparer le bon grain de l’ivraie ? Comment remettre de l’ordre dans ce chaos informationnel ? Comment automatiser la détection de documents sensibles, engageants ou contenant des données personnelles sans devoir re-classer, à la main, l’ensemble de ces corpus documentaires ?
Grâce à ses fonctionnalités natives d’intelligence artificielle et d’apprentissage automatique everteam.discover vous aide en trois phases :
Analyse et extraction automatique des données sensibles
Classification automatique ou par suggestion selon votre typologie documentaire
Prise d’action et applications des bonnes politiques de rétention ou de sécurisation
Vos déchets informationnels vous coûtent de plus en plus cher et les risques de fuites de données sensibles deviennent plus importants si votre information n’est pas correctement assainie et gouvernée. Le deuxième webinar de la série “La Gouvernance de l’Information en pratique” vous aide à reprendre le contrôle de vos disques réseaux grâce à la catégorisation automatique.
Architectures et application hybrides selon vos termes et à votre propre rythmeMicrosoft
Nous croyons fermement que notre plateforme cloud - et à l’instar de celles que nos compétiteurs proposent - offre aux entreprises une alternative très intéressante à la définition et l'exploitation de leur capacité propre de centre de données, mais nous devons reconnaître dans le même temps que « le déplacement vers le cloud » est intrinsèquement un processus graduel. Par ailleurs, la plupart des applications (métier) d'aujourd'hui ne sont ni simples ni monolithiques ; elles peuvent être constituées de nombreux éléments distincts qui sont mis en œuvre sous formes de services, de composants, de « plug-ins » tiers et d'autres systèmes ou ressources. En outre, il n'est pas rare pour une application de faire usage de services exposés par des organisations partenaires, ou de services et des composants qui se trouvent à l'intérieur du réseau d'entreprise. Certains de ces éléments ne seront/pourront en fait jamais être migrés vers le Cloud pour une variété de raisons. Toutefois, la proposition de valeur du Cloud peut être intéressante pour les autres. La possibilité de déplacer des éléments constituants spécifiques dans le Cloud peut par exemple réduire les coûts d'infrastructure, les exigences de gestion et de maintenance, etc. Les applications qui en découlent sont souvent désignées comme des applications hybrides. L'intégration de l’ensemble des éléments constitutifs lorsque tous les composants sont hébergés localement dans votre centre de données n'est pas une tâche facile, et elle peut devenir encore plus difficile lorsque vous déplacez une partie des fonctionnalités de l'application dans un environnement Cloud. Les problèmes que vous rencontrez lors de leur développement ou lors de la migration d’éléments existants de vos applications sur site vers le cloud suscitent des questions telles que « Comment puis-je intégrer les différentes parties à travers les frontières de réseau et de domaines de sorte que toutes les parties coopèrent ensemble pour mettre en œuvre l'application complète ? » et « Comment puis-je optimiser les performances et la disponibilité lorsque certaines parties de l’application sont situés dans le nuage ? » Cette session se concentre sur les approches communes pour définir votre propre chemin à votre propre rythme, ainsi que sur les questions que vous rencontrerez lors de la mise en œuvre d’applications qui s'exécutent en partie dans le Cloud et en partie sur site, ou si vous décidez de migrer tout ou partie des éléments d'une application existante en local vers le cloud. Elle illustrera le propos au travers de l'utilisation des services d’infrastructure (IaaS) et de plate-forme (PaaS) de Windows Azure et, montrera comment vous pouvez profiter de ces nombreux services pour simplifier et accélérer le développement et le déploiement de ces applications: Service Bus, SQL Data Sync, Virtual Network, Access Control, etc.
Dans cette session vous découvrirez comment le couple Visual Studio 2013 et le Framework 4.5.1 augmentent votre productivité ainsi que les performances de vos applications .NET. Dans la lignée du Framework 4.5, cette dernière version offre son lot d’améliorations, parfaitement stabilisées au rythme des versions de Visual Studio. Cependant, Microsoft a décidé de livrer des packages officiels à un rythme plus rapide et plus fréquent que les versions majeures de Visual Studio. La dernière version de NuGet intégrée à Visual Studio 2013 permet de trouver plus facilement le type de package recherché. Ne manquez pas cette session et venez découvrir l’essentielle des nouveautés apportées par Visual Studio 2013 et le Framework 4.5.1.
Speakers : Michel Perfetti (Cellenza), Bruno Boucard (Cellenza)
Découvrez comment l’ECM peut concrètement « BOOSTER » votre entreprise à trav...Microsoft Décideurs IT
Relevez le défi de maitriser la gestion collaborative pilotée de l’information multicanal. Exploitez la puissance du Framework ECM « COCAPPS » pour enrichir vos applications et proposer à vos collaborateurs ou clients, de nouvelles fonctions dont le « Case Management » ; en pilotant efficacement votre production d’informations administratives, commerciales... Pour les éditeurs de logiciels ou SSII cette cession permet de réduire votre « Time to Market ». Elle est complétée par trois ateliers pratiques concernant l'usage du Framework « COCAPPS » dans les applications Microsoft SharePoint et CRM.
Vous souhaitez implémenter une architecture Exchange 2013 ? Voici LA session à suivre pour dimensionner correctement vos serveurs en fonction des rôles que vous allez leur affecter. Evitez les pièges, et suivez les recommandations des experts afin de maximiser les performances de chaque serveur dans votre architecture. Vous souhaitez comprendre en profondeur comment mettre tout cela en place : c'est la session à suivre. Comment Sizer un CAS correctement ? idem sur le Mail Server... Tout vous sera expliqué dans cette session
Speakers : Guy Groeneveld (Microsoft), Raquel Municio (Microsoft France), Stefan Plizga (Microsoft France), Lionel Constantin (Microsoft France)
Similaire à 2014 11-18-luxid-for-open text-pn (20)
Réunion aOS Lille Euratechnologies le 02.12.2016
Développer sa Digital Workplace avec Office 365.
Transformation Numérique au quotidien - collaboration - communication - digitalisation des processus - mobilité
1. Capitalisez vos contenus
Content Server
Paris le 18 Novembre 2014
Philippe Deltenre – Temis
Pierre Nocera – Red Tree Software
Jean-Marc Touzard – Camoai
2. Agenda
• 15’ : Présentation des acteurs et genèse de la solution
• 30’ : Notions d'enrichissement sémantique
• 30’ : Présentation de la solution Luxid® for OpenText
• 30’ : Témoignage de l’OCDE
• 30’ : Questions ⁄ Réponses
3. • Éditeur spécialisé dans les modules
complémentaires à la suite Content Server :
• Expertise documentaire
• Forte valeur ajoutée
• Centré sur les besoins de l’utilisateur.
• Red Tree Software est distribué en France et
à l’étranger par un réseau de partenaires.
4. • Accélérateur de Transformation Numérique Camoai propose à ses
clients conseil opérationnel et accompagnement :
• Projets Xnet, collaboratif, socialisation
• Projets ECM
• Projets BPM
• Projets de mobilité et entreprise étendue.
• Les solutions Content Server et SharePoint sont au coeur de ces
offres, et Temis un partenaire naturel pour accompagner nos clients
dans leurs projets ECM et Big Data.
17. Luxid for OpenText CS10 (et
Livelink 9.7…)
Pourquoi imaginer une telle solution ?
18. Le contexte
• Les sites ECM OpenText présentent souvent :
• Une utilisation avancée des fonctionnalités documentaires et gestion de contenus (différents
types d’espaces, métadonnées, formulaires, workflows, sécurité, types de contenus)
• Une forte volumétrie
• Un contexte international et donc des exigences en multilinguisme.
• Malgré une fonction de recherche plutôt performante, on constate que les
utilisateurs sont en fait souvent mécontents de la recherche proposée, et
critiquent :
• La pertinence des résultats
• La présentation des résultats.
• Comme il arrive souvent dans les projets ECM, des fonctionnalités intéressantes
sont peu ou pas utilisées :
• Par méconnaissance des utilisateurs et/ou du staff projet en charge de les déployer.
• Par insuffisance dans la gestion du changement.
19. Le contexte
• À cette situation déjà complexe viennent s’ajouter de nouvelles
contraintes :
• On ne demande plus au moteur de recherche de trouver des documents où
l’utilisateur ira puiser de l’information
• On demande au système d’extraire du sens dans un volume d’information croissant
tellement vite que l’utilisateur ne peut plus passer son temps à analyser des documents
sortis d’une liste de résultats
• On attend du système qu’il soit capable de gérer plusieurs cibles en même
temps pour nous aider dans la réflexion et la prise de décision
• Et tout cela en quelques secondes sur des volumes en très forte croissance.
20. La réponse
• La spécialisation sémantique du moteur Luxid de Temis va apporter
des réponses à ces exigences.
• Souvent perçue comme complexe et réservée à des spécialistes,
l’approche sémantique reste encore rare dans les entreprises du
monde industrie-commerce et services.
• Grâce aux connecteurs qui relient le moteur d’enrichissement
sémantique, il sera possible de venir compléter les solutions ECM en
place, en capitalisant les efforts déjà réalisés.
23. Le Connecteur - Les fonctionnalités
• Le connecteur Luxid pour OpenText constitue la passerelle entre
Content Server et Luxid, et permet d’enrichir le contenu sémantique
des documents de manière automatique ou manuelle.
• Les documents classés dans OpenText Content Server voient leur
contenu enrichi par des métadonnées sous forme de catégories /
attributs ou de classifications.
• Le connecteur peut prendre en charge l’extraction du texte des
documents avec ou sans OCR avant leur soumission au serveur Luxid.
24. Le Connecteur - L’architecture
• Le connecteur Luxid pour OpenText est un middleware entre Content
Server et le serveur Luxid et se présente sous la forme d’un service
Windows.
• Le gestionnaire de messages MSMQ est utilisé pour prendre en
charge la gestion des demandes de jobs, ce qui permet d’offrir une
bonne qualité de service : les demandes d’enrichissement ne sont pas
perdues si l’un des 2 serveurs est arrêté.
• Plusieurs connecteurs peuvent être répartis sur plusieurs serveurs,
afin de répartir la charge dans le contexte de traitements importants.
25. Le Connecteur - Flux de données
1 : Les documents sont stockés dans Content Server
2 : Un message est envoyé au gestionnaire MSMQ pour mise en file d’attente de traitement
3 : Le connecteur prend en charge le traitement, extrait éventuellement le texte des documents
4 : Le document est envoyé au serveur Luxid pour enrichissement
5 : Le serveur Luxid renvoie les métadonnées enrichies
6 : Le connecteur met à jour les métadonnées dans Content Server sous forme de catégories / attributs ou de classifications
7 : L’enrichissement sémantique est mis à disposition auprès utilisateurs grâce à l’interface standard de Content Server ( facettes, filtres de recherche, classifications,
etc..)
26. Le Connecteur - Paramétrages
Le paramétrage s’effectue dans le module pour Content Server, dans une page d’administration dédiée.
On paramètre ainsi un ou plusieurs serveurs Luxid, en indiquant notamment l’URL du webservice Luxid.
Ensuite on crée un ou plusieurs processeurs d’analyse, qui permettent de définir le mapping entre les entités Luxid et les catégories / classifications OpenText.
Enfin on crée des Jobs pour l’execution automatique, ou des menus fonctions pour appeler un processeur d’analyse via l’interface utilisateur.
27. Le Connecteur – Interface utilisateur
L’appel à l’enrichissement sémantique peut s’effectuer manuellement via l’interface utilisateur grâce à un menu fonction disponible sur les
documents, et via un bouton « Enrich » pour le traitement des sélections multiples.
28. Le Connecteur – Interface utilisateur
L’appel à l’enrichissement sémantique peut s’effectuer automatiquement. Dans l’exemple ci-dessus chaque fois qu’un document sera ajouté
dans ce dossier ou un sous-dossier, il sera traité et enrichi automatiquement en utilisant le processeur d’analyse « Entities ».
31. Utilisation de Content Server à l’OCDE
• Système de Records Management de notre unité
Bibliothèque et Archives depuis 2009
• Catalogue de publications OCDE et de
ressources externes
• 2 500 000 documents électroniques
• Sur la période 2000-2014:
+ de 150 000 documents officiels
+ de 15 000 publications
+ de 3 000 000 de pages
32. Retrouver l’information dans Content Server avec
Luxid
Amélioration de la recherche standard de Content
Server par:
• Des métadonnées homogènes
• Un identifiant unique pour chaque concept
permettant:
de chercher dans toutes les langues
simultanément
de retrouver un concept malgré l’utilisation
de synonymes et l’évolution du langage
33. Le connecteur développé par Red Tree Software
• Définition de lots de documents à enrichir grâce
à des LiveReport (requêtes sql) avec un certain
plan d’annotation
• Processus automatique et transparent
• Résultats stockés en XML pour une recherche
par URI
• Amélioration de la recherche, résultats plus
pertinents, plus complets
34. Mise en oeuvre – Phase I
Phase I Phase II Phase III
Fin 2013 Fin 2014
35. Mise en oeuvre – Phase II
Phase I Phase II Phase III
Fin 2013 Fin 2014
36. Mise en oeuvre – Phase III
Phase I Phase II Phase III
Fin 2013 Fin 2014
37. Développement
des cartouches
(AWB)
Gestion des
vocabulaires
LUXID
Content Server
Architecture
Enrichissement des vocabulaires Enrichissement de Content Server
38. Questions - Contacts
Par mail :
jm.touzard@camoai.com
philippe.deltenre@temis.com
pnocera@redtreesoftware.com
Par téléphone : +33 686 841 233
Linkedin : fr.linkedin.com/in/jmtouzard/
Viadeo : http://www.viadeo.com/fr/profile/jean-marc.touzard
Quelques chiffres sur l’utilisation de Content Server
Période 2000-2014, premier lot concerné par l’enrichissement
L’indexation standard dans Content Server = plein-texte + métadonnées (catégories/attributs, RM, etc)
La meilleure recherche ne peut que combiner ces 2 types d’information, d’autre part:
Les métadonnées saisies par des humains sont possiblement partiales, inconsistantes
privilégier un terme plutôt qu’un autre
peut varier selon la personne, l’humeur, etc.
Les termes évoluent, pas les métadonnées stockées
Une métadonnée si elle n’est qu’une chaine de caractère n’évolue plus (nécessité de stocker un concept avec un identifiant unique)
Le terme recherché n’est pas forcément présent dans le document (synonymes, langues différentes)
Processus parallèles et nécessitant des allers-retours
Mise à jour des vocabulaires et développement des 2 principales cartouches
Classification (Extraction de Sujets et d’Aires Géographiques (issus de notre taxonomie centrale)
Document Type (Catégorisation par type de documents)
Corpus de 165 000 documents et publications (3 000 000 de pages) identifiés pour le passage en production
Temps de traitement évalué: moins de 9 jours (24/24)
Enrichissement en production des 165 000 documents et publications
Mise en place des processus d’enrichissement automatique pour les nouveaux documents
Extension du périmètre des contenus à enrichir dans Content Server
Mise à disposition des webservices Temis pour d’autres systèmes
Exploitation des liens sémantiques
Architecture très schématisée
L’enrichissement des vocabulaires n’est pas automatique: processus de veille, les cartouches nous aident à identifier les termes candidats