2023/07 |
Research reports : Informatique confidentielle - État de l'art
Ce rapport présente les trois principales techniques d’informatique confidentielle, ayant pour but de protéger les données en cours d’utilisation, en particulier dans le contexte d’infrastructures informatiques publiques partagées :
- Le chiffrement homomorphe ;
- Le calcul multipartite sécurisé ;
- Les environnements d'exécution de confiance.
Dit rapport presenteert de drie belangrijkste technieken voor Confidential Computing, met het doel om gegevens "in use" te beschermen, meerbepaald in de context van public cloud computing:
- Homomorfe encryptie ;
- Secure Multiparty Computation;
- Trusted Execution Environments.
|
Fabien A. P. Petitcolas |
Français |
2022/04 |
Management Summary : eGov Communications App
This document describes a solution for communication between government and citizens. It has been conceived based on a mobile app, using a high quality identification system, strong authentication, encryption, advanced pseudonymization, and integration with government applications and services such as secured mail box or digital wallets.
Download: | Download - Link |
Languages: | English |
Author: |
Koen Vanderkimpen
|
Category: | Management Summary |
Date: | 2022/04 |
Size: | 269.7 KiB |
Platforms: | Windows |
Keywords: | Mobile, Be-Informed |
|
Koen Vanderkimpen |
English |
2020/11 |
Research reports : Kwantumcomputers & cryptografie
Bijlage (Research report) bij de slides van de webinar voor Smals Academy op 24/11/2020.
Cryptografie – het beveiligen van gegevens m.b.v. wiskundige principes – is cruciaal in onze hedendaagse samenleving. In deze webinar wordt door Kristof Verslype, cryptograaf bij Smals Research, dieper ingegaan op de problematiek en mythe van de kwantumcomputers en welke de gevolgen zijn voor de moderne cryptografie. Volgende aspecten komen aan bod:
- De basisprincipes van kwantumcomputers
- De complexiteit om ze te bouwen
- De bedreiging die ze vormen voor de moderne cryptografie
- De voorbereidingen de we kunnen/moeten treffen
La cryptographie - la sécurisation des données fondée sur des principes mathématiques - est fondamentale dans notre société. Lors de ce webinaire, Kristof Verslype, cryptographe au sein de l’équipe Smals Research, explique la problématique et le mythe des ordinateurs quantiques, ainsi que les conséquences pour la cryptographie moderne. Divers aspects y sont abordés :
- Les principes de base des ordinateurs quantiques
- La complexité de leur construction
- La menace qu'ils représentent pour la cryptographie moderne
- Les mesures préparatoires que nous pouvons/devons prendre.
|
Kristof Verslype |
Nederlands |
2016/06 |
Research Note 40: Event Driven Software Engineering
In computersoftware, en zeker in gedistribueerde systemen, zijn er gebeurtenissen (‘Events’) in overvloed. Wanneer men deze Events een centrale plaats geeft bij het ontwerpen, dan komt men in het domein van ‘Event Driven Software Engineering’ (EDSE), een discipline die onder andere de ‘Event Driven Architecture’ (EDA) omvat.
In deze Research Note wordt getracht om het belang aan te tonen van de rol die Events kunnen spelen bij het opzetten van performante, betrouwbare en onderhoudbare informatiesystemen: applicaties en services kunnen los aan elkaar gekoppeld worden en worden toch in real-time op de hoogte gehouden van nieuwe data. Daarnaast zijn Events op zich ook een erg krachtig paradigma als bouwsteen voor sommige individuele applicaties, of als gegevensbron voor Big Data Analytics en real-time intelligente systemen, zoals deze voor Complex Event Processing (CEP).
Dit alles gaat natuurlijk niet zonder slag of stoot; de technologie om dit te realiseren is weliswaar beschikbaar, maar een goede modellering van de (Business) Events is onontbeerlijk en meteen de grootste uitdaging voor analisten en architecten.
En ce qui concerne les logiciels et certainement les systèmes distribués, les événements (‘Events’) ne manquent pas. Lorsque ces Events sont placés au cœur de la conception, on entre dans le domaine de l'Event Driven Software Engineering (EDSE), une discipline qui englobe entre autres l'Event Driven Architecture (EDA).
La présente Research Note a pour objet de démontrer l'importance du rôle que ces Events peuvent jouer dans la mise en place de systèmes d'information performants, fiables et maintenables. Les applications et services peuvent faire l'objet d'un couplage faible et quand même être informés en temps réel des nouvelles données. D'autre part, les Events sont un très puissant paradigme en tant que composante de certaines applications individuelles ou en tant que source de données pour les Big Data Analytics et les systèmes intelligents en temps réel, comme ceux du Complex Event Processing (CEP).
Bien entendu, tout ceci n'est pas évident. Car si les technologies nécessaires sont disponibles, une bonne modélisation des (Business) Events est indispensable et représente le défi majeur des analystes et architectes.
Download: | Download - Link |
Languages: | Nederlands |
Author: |
Koen Vanderkimpen
|
Category: | Research Note |
Date: | 2016/06 |
Size: | 1.0 MiB |
Platforms: | Windows |
Keywords: | Event, Software Engineering, EDSE, BPM (Business Process Management) |
|
Koen Vanderkimpen |
Nederlands |
2016/03 |
Research Note 39: Data Archipel - Analyse op Gekruiste Persoonsgegevens
Analytics op persoonsgegevens moet steeds in overeenstemming gebeuren met de privacywetgeving, waarbij principes zoals finaliteit, proportionaliteit, transparantie en information security practices gerespecteerd dienen te worden. De fragmentatie van de overheid levert een bijkomende uitdaging op. Wanneer namelijk persoonsgegevens uit verschillende bronnen gekruist worden in één centraal datawarehouse, blijven de aanleverende overheidsbedrijven enerzijds wel verantwoordelijk voor de persoonsgegevens, maar anderzijds verliezen ze alle controle erop.
Deze tekst presenteert op een toegankelijke manier het door Smals Research ontwikkelde concept van de data archipel, dat gebruikmakend van cryptografie drie moeilijk te combineren zaken realiseert: 1) het kruisen van persoonsgegevens voor analyse is vlot mogelijk, 2) de privacy van de betrokken burger wordt beschermd en 3) de aanleverende overheidsbedrijven behouden controle op de persoonsgegevens waar ze verantwoordelijk voor blijven.
L'analytique de données personnelles doit toujours s'effectuer en conformité avec la législation de la vie privée, qui impose le respect de principes tels que la finalité, la proportionnalité et la transparence mais aussi des pratiques de sécurisation de l'information. La fragmentation de l'État entraîne un défi supplémentaire. En effet, lorsque des données personnelles issues de sources diverses sont croisées dans un datawarehouse central, les entreprises publiques qui livrent des données personnelles demeurent responsables de ces données, mais elles en perdent totalement le contrôle.
Ce texte présente en termes clairs le concept de data archipel, que l'équipe Smals Research a développé et qui, au moyen de la cryptographie, permet d'atteindre trois objectifs difficilement combinables : 1) le croisement de données personnelles à des fins d'analyse est facilement réalisable, 2) la confidentialité du citoyen concerné est protégée et 3) les entreprises publiques gardent le contrôle des données qu'elles livrent et dont elles sont responsables.
Download: | Download - Link |
Annexes: | |
Languages: | Nederlands |
Author: |
Kristof Verslype
|
Category: | Research Note |
Date: | 2016/03 |
Size: | 1.1 MiB |
Keywords: | Privacy, Big Data, Cryptography, Analytics |
|
Kristof Verslype |
Nederlands |
2015/10 |
Research Note 38: Cryptographie et Cloud Computing - État de l'Art
Impossible de nier les avantages du cloud : réduction des coûts, plus grande évolutivité, meilleure mobilité, déploiement plus rapide et mises à niveau instantanées, pour ne citer qu'eux. Cependant, les risques de sécurité constituent toujours le principal frein à l'adoption du cloud par les organisations et entreprises. L’objectif de cette research note est de présenter les mécanismes cryptographiques connus et existants qui permettent protéger le stockage et le traitement de données dans les environnements cloud.
Het is onmogelijk om de voordelen van de cloud te ontkennen. Om er slechts enkele te noemen: vermindering van de kosten, een grotere evolutiviteit, een betere mobiliteit, een sneller deployment en instant updates. De veiligheidsrisico's vormen echter nog steeds de voornaamste reden waarom organisaties en bedrijven de cloud niet volledig omarmen. Deze research note heeft als doel de gekende en bestaande cryptografische mechanismen voor te stellen waarmee de gegevensopslag en -verwerking beschermd kunnen worden in de cloud-omgevingen.
Download: | Download - Link |
Languages: | Français |
Author: |
Tania Martin
|
Category: | Research Note |
Date: | 2015/10 |
Size: | 756.3 KiB |
Keywords: | Cloud Computing, Security, Cryptography |
|
Tania Martin |
Français |
2015/07 |
Research Note 37: SaaS Enablement
De druk om cloud-technologie te gaan gebruiken wordt steeds groter, en de public cloud zal een groot stuk van de koek voor zich nemen dankzij de belofte van grotere versatiliteit en lagere kosten. Wanneer men gevoelige data echter niet wil uitleveren aan multinationale cloud-spelers, zal men van de private cloud een valabel alternatief moeten maken, dat er via een verhoogde bruikbaarheid mee kan wedijveren.
SaaS Enablement, het opwaarderen van een applicatie zodat het mogelijk wordt om deze in een cloud-context als SaaS aan te bieden, is één van de elementen die een private cloud meer aantrekkingskracht kunnen geven. In deze tekst bepreken we wat de mogelijkheden zijn voor deze strategie, en hoe we ze kunnen toepassen met een zo min mogelijke effort.
Het resultaat is Instance as a Service, een relatief snelle en eenvoudige manier om te SaaS-Enablen, die maximaal nut haalt uit een onderliggend aPaaS-platform.
SaaS Enablement is echter slechts een stukje van de puzzel: extra meerwaarde zal moeten komen uit verregaande integratiemogelijkheden (“Enterprise Enablement”) en extra dienstverlening.
La technologie cloud s'impose de plus en plus et le cloud public se taillera la plus grande part du gâteau vu sa promesse de versatilité supérieure et de coûts inférieurs. Toutefois, si l'on ne souhaite pas confier des données sensibles à des fournisseurs de cloud multinationaux, il convient de faire du cloud privé une alternative valable, capable de rivaliser par une utilisabilité accrue.
Le SaaS Enablement, qui consiste à remanier une application de telle sorte qu'elle puisse être proposée dans un contexte cloud sous forme de SaaS, figure parmi les moyens susceptibles d'augmenter le pouvoir d'attraction d'un cloud privé. Dans ce texte, nous aborderons les possibilités pour cette stratégie et verrons comment les appliquer moyennant un effort minimal.
Le résultat s'appelle Instance as a Service, une méthode de SaaS Enablement relativement simple et rapide, qui tire au maximum profit d'une plateforme aPaaS sous-jacente.
Le SaaS Enablement n'est toutefois qu'une pièce du puzzle : la grande valeur ajoutée est à chercher dans les possibilités d'intégration poussée (“Enterprise Enablement”) et les services supplémentaires.
Download: | Download - Link |
Languages: | Nederlands |
Author: |
Koen Vanderkimpen
|
Category: | Research Note |
Date: | 2015/07 |
Size: | 1.3 MiB |
Keywords: | Cloud, SaaS, Software Engineering |
|
Koen Vanderkimpen |
Nederlands |
2015/03 |
Deliverable 2015/TRIM1/01: Citizen Engagement - Burgerinitiatieven & de rol van overheid en IT
Burgerparticipatie of citizen engagement is een brede term die gedefinieerd wordt als individuele of collectieve acties door burgers om zaken van algemeen belang te identificeren en aan te pakken. Dit kan onder meer gaan over cultuur, ontspanning, milieu, versterking van het sociale weefsel, verbetering van het publieke domein, economie en democratie.
Dit document heeft als doel om het concept "citizen engagement" van nabij te bekijken en te kijken hoe de overheid en IT hier een rol in kunnen spelen. Idealiter komen we tot een IT-platform voor burgerinitiatieven waar zowel burgers als overheid aan kunnen bijdragen, zonder echter uit het oog te verliezen dat IT op zich enkel een ondersteunende rol kan en mag spelen naast tal van andere (veel belangrijkere) factoren.
La participation citoyenne ou le citizen engagement est un vaste terme désignant la mise en œuvre d'actions individuelles ou collectives par les citoyens dans le but d'identifier et de traiter des matières d'intérêt général. Ces initiatives peuvent concerner entre autres la culture, le loisir, l'environnement, le renforcement du tissu social, l'amélioration du domaine public, l'économie et la démocratie.
Ce document a pour objet d'examiner le concept de "citizen engagement" et de voir le rôle que l'État et l'informatique peuvent y jouer. Idéalement, il s'agit d'aboutir à une plateforme IT d'initiatives citoyennes à laquelle tant les citoyens que l'État peuvent contribuer, sans toutefois perdre de vue que l'informatique en soi ne peut jouer qu'un rôle de soutien à côté d'une multitude d'autres facteurs (bien plus importants).
|
Kristof Verslype |
Nederlands |
2014/11 |
Research Note 36: Social Media Interaction
Ce document décrit de quelle façon deux médias sociaux (Facebook et Twitter) pourraient servir d’alternative à une adresse e-mail comme canal de communication entre les autorités et les citoyens. Nous décrivons pour ces deux outils comment il est possible d’envoyer de façon automatisée un message privé à un utilisateur qui s’est au préalable authentifié et a lié de façon sécurisée son compte Facebook ou Twitter à une « e-box ».
Dans le cas de Facebook, nous utilisons une « application Facebook », permettant d’envoyer des notifications à l’utilisateur. Dans le cas de Twitter, nous utilisons une « application Twitter », permettant d’envoyer, au nom d’un compte officiel, un « direct message » à un citoyen.
Quelques détails techniques seront donnés, mais pas suffisamment pour pouvoir réaliser l’ensemble d’une telle application, dont nous
avons développé un prototype fonctionnel. Il sera nécessaire de consulter la documentation technique spécifique au réseau social visé, afin de développer une application complète.
Après une introduction à portée générale, nous rentrerons, tant pour Facebook que pour Twitter, dans un niveau de détails s’adressant à des développeurs ou des lecteurs à profil technique.
Dit document beschrijft op welke manier twee sociale media (Facebook en Twitter) een alternatief zouden kunnen vormen voor een e-mailadres als communicatiekanaal tussen de overheid en de burgers. We beschrijven voor deze twee tools hoe men automatisch een privébericht kan sturen naar een gebruiker die zich vooraf geauthenticeerd heeft en die zijn Facebook- en Twitteraccount veilig gekoppeld heeft aan een "e-box".
In het geval van Facebook gebruiken we een "Facebook-applicatie" waarmee we meldingen kunnen versturen naar de gebruiker. In het geval van Twitter gebruiken we een "Twitter-applicatie" waarmee we, in de naam van een officieel account, een "rechtstreeks bericht" sturen naar een burger.
Er zullen een aantal technische details gegeven worden, maar niet genoeg om zo'n applicatie, waarvan we een functioneel prototype ontwikkeld hebben, volledig te kunnen realiseren. U zal de technische documentatie voor elk sociaal netwerk moeten raadplegen om een volledige applicatie te kunnen ontwikkelen.
Na een algemene inleiding zullen we, zowel voor Facebook als voor Twitter, meer details geven waarbij we ons richten tot de ontwikkelaars of lezers met een technisch profiel.
Download: | Download - Link |
Annexes: | |
Languages: | Français |
Author: |
Vandy Berten
|
Category: | Research Note |
Date: | 2014/11 |
Size: | 1.0 MiB |
Keywords: | Social Media, Facebook |
|
Vandy Berten |
Français |
2014/11 |
Research Note 35: Facebook and Network Analytics
Le présent document a pour but de sensibiliser le lecteur à la quantité considérable d’information que l’on peut trouver à son propos sur les réseaux sociaux, en particulier sur Facebook. Nous verrons que ce qu’on peut trouver va bien au-delà de ce que les utilisateurs indiquent de leur plein gré.
Des techniques de network analytics permettront de déduire beaucoup de choses à propos d’une « cible », telles que les différents groupes sociaux auxquels elle appartient ou le degré de proximité avec ses amis.
Des méthodes d’inférence peuvent se baser sur les informations publiées par ses amis pour identifier parmi les groupes sociaux ceux correspondant au travail, au parcours scolaire, à la famille, aux loisirs…
En utilisant des outils de web crawling, il sera possible de reconstituer une grande partie du réseau d’amis de quelqu’un, même s’il a choisi de ne pas publier sa liste d’amis ou de masquer ses photos.
Nous verrons par ailleurs que le même genre de technique permettra de comprendre les relations entre les différents membres d’un groupe ou les fans d’une page Facebook.
Dit document heeft als doel de lezer te sensibiliseren voor de aanzienlijke hoeveelheid informatie die men over hem kan terugvinden op de sociale netwerken, in het bijzonder op Facebook. We zullen zien dat men veel meer kan terugvinden dan wat de gebruikers zelf hebben aangegeven.
Met "network analytics"-technieken kan veel afgeleid worden over een "doelwit", zoals de verschillende sociale groepen waar hij deel van uitmaakt of hoe close hij is met zijn vrienden.
Inferentie-methodes kunnen gebaseerd zijn op de gegevens gepubliceerd door zijn vrienden om de sociale groepen te identificeren die overeenstemmen met werk, school, familie, hobby's, ...
Door "web crawling"-tools te gebruiken, zal het mogelijk zijn om een groot deel van het vriendennetwerk van een persoon opnieuw samen te stellen, zelf als hij ervoor gekozen heeft om zijn vriendenlijst niet te publiceren of om zijn foto's te verbergen.
We zullen overigens zien dat dezelfde soort techniek ervoor kan zorgen dat we de relaties tussen de verschillende groepsleden of de fans van een Facebookpagina beter kunnen begrijpen.
Download: | Download - Link |
Annexes: | |
Languages: | Français |
Author: |
Vandy Berten
|
Category: | Research Note |
Date: | 2014/11 |
Size: | 1.2 MiB |
Keywords: | Social Media, Facebook, Privacy |
|
Vandy Berten |
Français |
2014/11 |
Research Note 34: Social Media and eGovernment
Le présent document peut être vu comme un catalogue d’informations diverses collectées durant notre étude sur les médias sociaux : outils, définitions, articles de presse ou scientifique, réflexion… Il n’a pas vocation à être lu d’un bout à l’autre de façon linéaire, ni à être diffusé largement. Il s’agit parfois plus de notes rapides qu’une analyse détaillées.
La première partie reprend un certain nombre de définitions et de statistiques à propos de l’utilisation de médias sociaux en Belgique ou dans le monde. Nous y incluons également un rapide survol des institutions présentes sur les médias sociaux.
La deuxième partie introduit diverses lectures et références utiles à toute organisation voulant débuter dans les médias sociaux. Nous présenterons ensuite dans la troisième partie une série d’outils de gestion quotidienne, puis nous intéresserons à des techniques permettant de comprendre un réseau ou de suivre ce qui se dit sur les médias sociaux.
Dans une dernière partie, nous reprendrons divers articles collectés à propos de sujets très vastes : détection de fraude, gestion des catastrophes, lutte contre le terrorisme…
Ce rapport est un support pour les slides ayant servi à la session d’information « Social Media & eGovernment » des 21 et 23 octobre 2014 (http://www.smalsresearch.be/publications/document/?docid=119).
Dit document kan gezien worden als een catalogus met verschillend gegevens verzameld tijdens onze studie over sociale media: tools, definities, persartikels, wetenschappelijke artikels, bedenkingen, ... Het is niet de bedoeling dat het document in een stuk gelezen wordt of dat het wijd verspreid wordt. Het gaat soms eerder om vlugge nota's dan een gedetailleerde analyse.
Het eerste deel herneemt een bepaald aantal definities en statistieken over het gebruik van sociale media in België of in de wereld. We overlopen ook vlug de instellingen die aanwezig zijn op de sociale media.
Het tweede deel biedt verschillende lectuur en referenties aan die nuttig zijn voor elke organisatie die wil starten op de sociale media. We stellen vervolgens in het derde deel een reeks tools voor dagelijks beheer voor, daarna bekijken we de technieken waarmee we een netwerk kunnen begrijpen of kunnen volgen wat er gezegd wordt op de sociale netwerken.
In een laatste deel zullen we verschillende artikels hernemen die we verzameld hebben over zeer uitgebreide onderwerpen: fraudedetectie, beheer van catastrofes, strijd tegen het terrorisme, ...
Dit verslag dienst als ondersteuning bij de slides voor de informatiesessie "Social Media & eGovernment" van 21 en 23 oktober 2014 (http://www.smalsresearch.be/publications/document/?docid=119).
Download: | Download - Link |
Annexes: | |
Languages: | Français |
Author: |
Vandy Berten
|
Category: | Research Note |
Date: | 2014/11 |
Size: | 959.0 KiB |
Keywords: | Social Media |
|
Vandy Berten |
Français |
2014/04 |
Research Note 33: Open Data et eGovernment
Cette note propose un regard critique sur le phénomène des « open data » dans l’eGovernment, à l’heure où une directive européenne récemment parue en 2013 en encourage la diffusion. Une question cruciale sera omniprésente : la qualité des « open data » eu égard à leurs usages attendus, qualité potentiellement douteuse, dans la mesure où celles-ci prolifèrent dans l’environnement ouvert et non contrôlé du web. Après une définition du concept d’open data sur la base d’exemples, l’objet de la directive ainsi que ses implications en termes financiers et juridiques sont évoqués. Une typologie des open data, selon que celles-ci sont publiques, statiques ou dynamiques, plus ou moins contrôlées à la source ou restreintes à un public donné est ensuite évaluée. Les aspects fonctionnels des open data, depuis les formats jusqu’aux normes d’interopérabilité sémantique et à la mise en place de plateformes de « citizen engagement » sont alors évoqués et suivis, en guise de conclusion, de plusieurs recommandations pratiques.
Deze nota biedt een kritische blik op het fenomeen “open data” in het eGovernment op het moment dat een Europese richtlijn, die onlangs in 2013 verscheen, de verspreiding ervan aanmoedigt. Een cruciale kwestie zal alomtegenwoordig zijn: de kwaliteit van de “open data” hangt af van het verwacht gebruik er van en is eerder onzeker, aangezien “open data” vooral gebruikt worden in de open en niet-gecontroleerde omgeving van het web. Na een definitie van het concept open data aan de hand van voorbeelden worden het doel van de richtlijn alsook de implicaties ervan op financieel en juridisch vlak besproken. Daarna wordt een typologie van open data geëvalueerd naarmate deze een publiek, statisch of dynamisch karakter hebben en naargelang ze in mindere of meerdere mate aan de bron gecontroleerd worden of beperkt worden tot een bepaald publiek. Vervolgens komen de functionele aspecten van open data aan bod, gaande van de formaten tot de semantische interoperabiliteitsnormen en de opstelling van “citizen engagement”-platformen. Tot slot zullen er meerdere praktische aanbevelingen gegeven worden.
Download: | Download - Link |
Languages: | Français |
Author: |
Isabelle Boydens
|
Category: | Research Note |
Date: | 2014/04 |
Size: | 1.4 MiB |
Keywords: | Open Data, Data quality |
|
Isabelle Boydens |
Français |
2014/03 |
Research Note 32: Advanced Persistent Threats - Etat de l'Art
Depuis quelques années, le monde de la sécurité informatique doit faire face à un nouveau type de cyber-attaques très sophistiquées appelé APT, sigle pour « Advanced Persistent Threats ». Au vu des préjudices que peuvent causer les APT, tout organisme et entreprise doit se tenir au courant de cette récente problématique. L’objectif de cette research note est double. Tout d’abord, elle présente un état de l’art des APT, avec leurs caractéristiques et quelques exemples célèbres. Ensuite elle parcourt brièvement les solutions existantes qui permettent potentiellement de se protéger de ces menaces.
Sinds enkele jaren moet de wereld van informaticaveiligheid opboksen tegen een nieuw type zeer geavanceerde cyberaanvallen genaamd APT, wat de afkorting is voor “Advanced Persistent Threats”. Gezien de schade die deze APT's kunnen berokkenen, moeten instellingen en ondernemingen op de hoogte blijven van deze recente problematiek. Deze research note kent twee doelstellingen. Ze stelt in de eerste plaats een overzicht voor van de APT-aanvallen, met hun eigenschappen en enkele bekende voorbeelden. Vervolgens worden de bestaande oplossingen waarmee men zich potentieel kan beschermen tegen deze bedreigingen kort overlopen.
Download: | Download - Link |
Languages: | Français |
Author: |
Tania Martin
|
Category: | Research Note |
Date: | 2014/03 |
Size: | 1.2 MiB |
Keywords: | Security, APT |
|
Tania Martin |
Français |
2014/03 |
Research Note 31: Application Platform as a service
De cloud is onze wereld van computing drastisch aan het veranderen. Infrastructure en Software as a Service (IaaS en SaaS) raakten reeds sterk ingeburgerd, maar nu is ook het middelste deel van de cloud stack – Platform as a Service (PaaS) – aan een opmars bezig. Dit keer is het de softwareontwikkeling zélf die de impact van de cloud voelt. In deze studie werd de grootste groep van PaaS-producten, de Application PaaS (aPaaS) onder de loep genomen. aPaaS-platformen leggen een sterke focus op het standaardiseren en automatiseren van een groot aantal ontwikkelingsaspecten, en zorgen op die manier voor een kortere time-to-market, lagere kosten en een verhoogde dienstverlening.
Le cloud est en train de révolutionner le monde de l'informatique. En effet, si l’Infrastructure as a Service et le Software as a Service (IaaS et SaaS) sont déjà profondément ancrés, la couche centrale de la pile du cloud - Platform as a Service (PaaS) - est à son tour en pleine progression. Cette fois, l’impact du cloud se fait sentir sur le développement de logiciels même. Dans cette étude, nous avons passé sous la loupe le plus grand groupe de produits PaaS, l’Application PaaS (aPaaS). Les plateformes aPaaS sont clairement axées sur la standardisation et l'automatisation d'une multitude d'aspects du développement, permettant une réduction du time-to-market, une baisse des coûts et une augmentation du service.
Download: | Download - Link |
Annexes: | |
Languages: | Nederlands |
Author: |
Koen Vanderkimpen
|
Category: | Research Note |
Date: | 2014/03 |
Size: | 528.8 KiB |
Keywords: | PaaS, aPaaS, Cloud Computing |
|
Koen Vanderkimpen |
Nederlands |
2014/01 |
Deliverable : Gestion int#U00e9gr#U00e9e des anomalies - Evaluer et am#U00e9liorer la qualit#U00e9 des donn#U00e9es
Download: | Download - Link |
Category: | Deliverable |
Date: | 2014/01 |
Size: | 3.4 MiB |
|
|
|
2013/12 |
Deliverable 2013/TRIM4/01: Email Address Reliability
Avec la dématérialisation de l’information et la mise en place croissante de synergies entre administrations, employeurs, entreprises et citoyens, la qualité des adresses e-mail devient stratégique. En effet, une bonne gestion de celles-ci peut, dans le cadre de l’egovernment, contribuer à l’amélioration des services rendus et à la réduction des coûts.
C’est le cas par exemple lorsque les adresses e-mail sont utilisées en vue de l’envoi de notifications, dans le cadre des recommandés électroniques. Si les adresses e-mail sont incorrectes, les notifications des envois recommandés doivent s’effectuer par voie postale. Dans certains cas, les coûts cumulés sur 5 ans peuvent atteindre plusieurs millions d’euros. À ces éléments s’ajoutent les gains indirects associés : respect de la législation, service rendu au citoyen et crédibilité…
Dans de nombreux pays, (Danemark, Suède, Norvège, Canada, …), le recours à l’adresse e-mail se généralise au sein de l’egovernment. En 2012, le ROI sur 15 ans d’une telle approche est estimé en Norvège à environ 250 millions d’euros. Les adresses e-mail se caractérisent toutefois par un cumul d’incertitudes : volatilité des usages, dynamique des noms de domaines, syntaxes non standards… En vue d’en assurer la maîtrise, le document présente :
- Les éléments syntaxiques, de validation (tests d’existence) et de « data matching »;
- Un ensemble de bonnes pratiques et une organisation en vue de maintenir la qualité d’une vaste source d’adresses e-mail dans le temps.
Cette étude repose sur plus de dix ans d’expérience au sein de la « Data Quality Cell » de la section « recherche » de Smals, sur un ensemble de tests pratiques et sur un prototype concret et original
|
Vandy Berten, Isabelle Boydens |
Français |
2013/12 |
Research Note 29B: Cloud-Strategieën bij Buitenlandse overheden - Update
De cloud eist een steeds prominentere rol op in het IT-landschap. Er kan relatief snel gebruik van gemaakt worden, biedt een ongekende flexibiliteit en dit tegen lage prijzen.
Voor overheden stelt zich dan de vraag welke houding aan te nemen tegenover het gebruik van de cloud.
Vooral met betrekking tot gevoelige gegevens kan dit vraagtekens oproepen.
In deze research nota overlopen wij de situatie in een aantal landen, zonder daarbij te claimen exhaustief te zijn.
Dit document is een update van de publicatie van juli 2013 (situatie Nederland, Frankrijk, UK, Singapore).
Le cloud occupe une place toujours plus importante dans le paysage informatique. Il peut être utilisé dans un délai relativement court et offre une flexibilité inédite, et ce à faible coût.
Pour l'administration publique, la question est de savoir quelle attitude adopter face à l’utilisation du cloud.
Notamment en ce qui concerne les données sensibles, il y a matière à s’interroger.
Dans cette research note, nous examinons la situation dans plusieurs pays, sans toutefois prétendre être exhaustifs.
Ce document est une update de la publication de juillet 2013 (situation aux Pays-Bas, en France, au Royaume-Uni, à Singapour).
Download: | Download - Link |
Annexes: | |
Languages: | Nederlands |
Author: |
Kristof Verslype
|
Category: | Research Note |
Date: | 2013/12 |
Size: | 545.0 KiB |
Keywords: | Cloud Computing, Security |
|
Kristof Verslype |
Nederlands |
2013/12 |
Research Note 30: Streamlining Analytics
Deze researchnote vat de infosessie ‘Streamlining Analytics’ samen, gepresenteerd in juni 2013. Streamlining Analytics bespreekt drie barrières die het introduceren van analytics in bestaande organisaties bemoeilijken: (1) een trage en complexe architectuur, (2) een niet-optimale aanpak van dataquality-problemen en (3) een atypisch projectkader waarbinnen analyticsprojecten uitgevoerd worden. Voor elk van deze barrières reiken we mogelijke oplossingen aan. Zo bespreken we manieren om een complexe data-architectuur te vereenvoudigen en methodes om dataquality-aspecten te behandelen binnen analyticsprojecten. Voorts behandelen we ook project frameworks die het mogelijk maken om de nodige resources en tijd van typische analyticstaken beter in te schatten.
Cette Research Note résume la séance d’info ‘Streamlining Analytics’, présentée en juin 2013 et traitant de trois obstacles qui compliquent l'introduction de l'analytique dans des organisations existantes : (1) une architecture lente et complexe, (2) une approche non optimale des problèmes de qualité des données et (3) un cadre de projet atypique dans lequel sont exécutés les projets d’analytique. Pour chacun de ces obstacles, nous procurons des solutions possibles. Nous abordons ainsi des moyens de simplifier une architecture de données complexe et des méthodes pour traiter les aspects de qualité des données dans les projets d'analytique. De même, nous présentons des cadres de projet permettant de mieux estimer les ressources et le temps nécessaires pour des tâches d’analytique typiques.
Download: | Download - Link |
Annexes: | |
Languages: | Nederlands |
Author: |
Jan Meskens, Dries Van Dromme
|
Category: | Research Note |
Date: | 2013/12 |
Size: | 595.4 KiB |
Keywords: | Big Data, Business Intelligence, data quality |
|
Jan Meskens, Dries Van Dromme |
Nederlands |
2013/07 |
Research Note 29: Cloud-Strategieën bij Buitenlandse overheden
De cloud eist een steeds prominentere rol op in het IT-landschap. Er kan relatief snel gebruik van gemaakt worden, biedt een ongekende flexibiliteit en dit tegen lage prijzen.
Voor overheden stelt zich dan de vraag welke houding aan te nemen tegenover het gebruik van de cloud.
Vooral met betrekking tot gevoelige gegevens kan dit vraagtekens oproepen.
In deze research nota overlopen wij de situatie in een aantal landen, zonder daarbij te claimen exhaustief te zijn.
Le cloud occupe une place toujours plus importante dans le paysage informatique. Il peut être utilisé dans un délai relativement court et offre une flexibilité inédite, et ce à faible coût.
Pour l'administration publique, la question est de savoir quelle attitude adopter face à l’utilisation du cloud.
Notamment en ce qui concerne les données sensibles, il y a matière à s’interroger.
Dans cette research note, nous examinons la situation dans plusieurs pays, sans toutefois prétendre être exhaustifs.
Download: | Download - Link |
Languages: | Nederlands |
Author: |
Kristof Verslype
|
Category: | Research Note |
Date: | 2013/07 |
Size: | 539.9 KiB |
Keywords: | Cloud Computing, Security |
|
Kristof Verslype |
Nederlands |
2013/03 |
Management Summary : Archivage des bases de données
La croissance continue des volumes de données stockés dans les bases de données n’est pas sans poser des problèmes : temps de réponse, difficultés à maintenir les performances, allongement du temps nécessaire pour réaliser les opérations de migration, de sauvegarde, de plan de continuité d’entreprise… Cela alors qu’une grande majorité des données présentes dans les bases de données en production ne sont que peu, voire plus du tout utilisées.
De plus, il n’est pas rare de devoir maintenir des applications obsolètes en production uniquement pour pouvoir accéder aux données, ce qui engendre des coûts importants en termes de maintenance (licence, compétences requises…).
Enfin, de nombreuses données doivent être conservées sur des périodes plus ou moins longues pour des raisons légales et réglementaires, ou pour se protéger contre tout risque juridique, ce qui implique de pouvoir démontrer leur intégrité et leur authenticité. À cet égard, conserver les données dans une base de données en production n’apporte aucune garantie.
Face à cette situation, l’archivage des données contenues dans les bases de données apporte une réelle valeur ajoutée et des éléments de réponse à ces différents défis. Il s’agit d’exporter périodiquement ou ponctuellement les données qui ne sont plus régulièrement utilisées en vue de les mettre en sécurité dans un système d’archivage électronique. La base de données de production est ensuite purgée des éléments archivés.
Cette démarche requiert une compréhension précise des enjeux et des problèmes inhérents à ce type de projet, mais également une méthodologie rigoureuse. Ces éléments seront exposés lors de la présentation, qui sera illustrée à l’aide d’exemples concrets. Nous présenterons les fonctionnalités, les atouts et les faiblesses de quatre solutions existantes sur le marché afin d’en donner au public une image plus concrète.
|
Arnaud Hulstaert, Grégory Ogonowski |
Français |
2012/12 |
Research Note 28: Data tracking - le "Return On Investment" de l'analyse des flux d'information
L’egovernment repose sur la gestion de vastes bases de données dont les enjeux sont stratégiques sur les plans sociaux, financiers et juridiques. Ces bases de données sont alimentées par des flux d’information (entre citoyens, entreprises, employeurs et administrations) véhiculant un grand nombre d’anomalies formelles (valeurs déviantes par rapport aux valeurs attendues) dont la gestion est coûteuse.
Le « data tracking » est une technique permettant de détecter les causes structurelles de ces anomalies et d’y remédier durablement à la source. Appliqué aux États-Unis dans les laboratoires d’AT&T, le « data tracking » a également été mis en œuvre dans le secteur de la sécurité sociale belge avec un ROI important. Ce rapport en développe les modalités d’application, les gains et les possibilités de généralisation à tout type de base de données.
E-government baseert zich op het beheer van uitgebreide databases die een strategische rol spelen op sociaal, financieel en juridisch vlak. Deze databases worden verrijkt door informatiestromen (tussen burgers, bedrijven, werkgevers en besturen) die een groot aantal formele anomalieën met zich meebrengen (afwijkende waarden ten opzichte van de verwachte waarden) waarvan het beheer duur is.
“Data tracking” is een techniek waarmee de structurele oorzaken van deze anomalieën kunnen opgespoord worden en die een duurzame oplossing aan de bron aanbiedt. In de VS wordt “data tracking” toegepast in de laboratoria van AT&T en het werd eveneens ingevoerd in de sector van de Belgische sociale zekerheid met een belangrijke ROI. Dit document bespreekt de toepassingsmodaliteiten, de voordelen en de mogelijkheden om de techniek te veralgemenen naar elk type database.
Download: | Download - Link |
Languages: | Français |
Author: |
Isabelle Boydens
|
Category: | Research Note |
Date: | 2012/12 |
Size: | 323.2 KiB |
Keywords: | Data quality, Database Management |
|
Isabelle Boydens |
Français |
2012/11 |
Research Note 27: Database Activity Monitoring (DAM)
Oplossingen voor Database Activity Monitoring registreren alle database queries om op deze manier interne en externe aanvallen op te sporen en het lekken van informatie of misbruiken van privileges te kunnen vaststellen. Doordat ze georiënteerd zijn rond data en redelijk transparant ontplooid kunnen worden, zijn ze een krachtig middel om de veiligheid van uw systemen aanzienlijk te verhogen. Bovendien kunnen ze ook dienen om uw audit trails te verfijnen en de integriteit ervan te verbeteren.
Download: | Download - Link |
Languages: | Nederlands |
Author: |
Johan Loeckx
|
Category: | Research Note |
Date: | 2012/11 |
Size: | 676.9 KiB |
Keywords: | Security |
|
Johan Loeckx |
Nederlands |
2012/11 |
Management Summary : Privileged Account Management (PAM)
De laatste jaren duiken steeds meer verhalen op in de pers van bedrijven waar al dan niet bewust gegevens verloren zijn gegaan of systemen gesaboteerd werden. Ondanks dat deze verhalen sterk gemediatiseerd worden door security vendors zit er een grond van waarheid in. Heel wat gebruikers beschikken buiten hun standaardrechten op systemen soms ook over meer geprivilegieerde rechten, zoals nodig voor administratiedoeleinden. De fractie aan “insider”-veiligheidsincidenten is laag in vergelijking met veiligheidsproblemen van buitenaf maar hun impact is des te groter. Dit gaat van imagoschade tot serviceonderbrekingen.
Elk systeem heeft wel een administratieaccount zoals Administrator (Windows), root (Unix), SYS (Oracle), ... In tegenstelling tot normale gebruikersaccounts zijn deze niet gekoppeld aan een persoon maar kunnen die gedeeld worden met mensen die het wachtwoord kennen van deze accounts. Het wachtwoord van gedeelde accounts wordt niet snel gewijzigd en soms onvoldoende beschermd. Als een account werd gebruikt weet men niet wie de fysieke persoon achter het toetsenbord was.
Privileged Account Management (kortweg PAM) heeft tot doel de geprivilegieerde toegang tot systemen te regelen en te controleren en maakt deel uit van het arsenaal aan tools beschikbaar voor security governance.
Download: | Download - Link |
Annexes: | |
Languages: | Nederlands |
Author: |
Bob Lannoy
|
Category: | Management Summary |
Date: | 2012/11 |
Size: | 140.2 KiB |
Keywords: | Network Security, Security |
|
Bob Lannoy |
Nederlands |
2012/11 |
Management Summary : Introduction à Cloud Encryption - Comment protéger la confidentialité des données hébergées dans le cloud
Le cloud computing est aujourd'hui une réalité. Ses nombreux avantages, comme la flexibilité d'utilisation ou la réduction des coûts, ont convaincu beaucoup d'entreprises qui utilisent désormais des applications cloud comme Dropbox, Gmail ou Salesforce au quotidien.
La sécurité doit faire l'objet d'une attention particulière lors du choix d'une solution de type cloud. En effet, mettre ses données dans le cloud implique a priori que l'on perd le contrôle sur ces données et que l'on fait confiance au fournisseur de services cloud pour protéger ces données. L'un des aspects de cette protection est la confidentialité : que fait mon fournisseur des données confidentielles (les miennes ou celles de mes utilisateurs) ? Même si le fournisseur a pris les mesures suffisantes pour correctement protéger les données par rapport à des attaquants externes, le fournisseur lui-même a accès à ces données et un gouvernement pourrait exiger qu'il les lui transmette (voir l'exemple du Patriot Act aux États-Unis).
Certains produits récents et innovants offrent des solutions de chiffrement pour les organisations qui souhaitent utiliser des services cloud tout en gardant l'assurance de la confidentialité de leurs données.
On peut classer ces produits dans deux catégories : d'une part, des solutions de stockage dans le cloud avec chiffrement. D'autre part, les « Cloud Security Gateways », conçues pour utiliser des applications cloud spécifiques comme Gmail ou Salesforce. Dans ces deux catégories, un point important est l'approche utilisée pour chiffrer les données : elles sont chiffrées avant d'être envoyées dans le cloud et avec des clés dont l'utilisateur ou l'entreprise garde toujours le contrôle. Ainsi, le fournisseur cloud n'a jamais accès aux clés et ne peut donc pas déchiffrer les données.
Lors de cette session d'information, nous présenterons un aperçu du marché et nous ferons la démonstration de certains produits. Nous poserons les questions suivantes : ces solutions sont-elles performantes ? Simples à mettre en œuvre ? Quel niveau de sécurité offrent-elles ? Nous comparerons ces solutions avec le système de stockage de données dans le cloud conçu par Smals basé sur le threshold encryption et faisant actuellement l'objet d'une demande de brevet.
Cloud computing is vandaag een realiteit. De talrijke voordelen ervan, zoals de flexibiliteit bij het gebruik of de verlaging van de kosten, overtuigden veel ondernemingen om voortaan dagelijks cloudtoepassingen als Dropbox, Gmail of Salesforce te gebruiken.
De veiligheid moet bijzondere aandacht krijgen bij de keuze van een oplossing van het cloudtype. Je gegevens in de cloud zetten betekent namelijk a priori dat je de controle over die gegevens verliest en dat je vertrouwt op de leverancier van de cloudservice om die gegevens te beschermen. Eén van de aspecten van die bescherming is de vertrouwelijkheid: wat doet mijn leverancier met de vertrouwelijke gegevens (die van mij of van mijn gebruikers)? Zelfs als de leverancier voldoende maatregelen heeft getroffen om de gegevens correct te beschermen tegen externe aanvallers, heeft hijzelf toegang tot die gegevens en een regering zou kunnen eisen dat hij ze overdraagt (zie het voorbeeld van de Patriot Act in de Verenigde Staten).
Een aantal recente en innoverende producten bieden vercijferingsoplossingen aan voor organisaties die clouddiensten wensen te gebruiken en tegelijk garanties willen krijgen wat betreft de vertrouwelijkheid van hun gegevens.
We kunnen die producten indelen in twee categorieën: enerzijds oplossingen voor opslag in de cloud met vercijfering. Anderzijds "Cloud Security Gateways", ontworpen om specifieke cloudtoepassingen als Gmail of Salesforce te gebruiken. Een belangrijk punt in die twee categorieën is de aanpak die gebruikt wordt om de gegevens te vercijferen: ze worden vercijferd vooraleer zij naar de cloud gestuurd worden en met sleutels waarover de gebruiker of de onderneming altijd de controle behoudt. Zo heeft de cloudleverancier nooit toegang tot de sleutels en kan hij de gegevens dus niet ontcijferen.
Tijdens deze infosessie zullen wij een overzicht van de markt geven en zullen wij een aantal producten demonstreren. We zullen de volgende vragen stellen: zijn deze oplossingen performant? Eenvoudig te implementeren? Welk veiligheidsniveau bieden zij? We zullen deze oplossingen vergelijken met het door Smals ontworpen systeem voor gegevensopslag in de cloud dat gebaseerd is op threshold encryption en waarvoor een octrooiaanvraag loopt.
Download: | Download - Link |
Annexes: | |
Languages: | Français |
Author: |
Julien Cathalo
|
Category: | Management Summary |
Date: | 2012/11 |
Size: | 143.9 KiB |
Keywords: | Cloud Computing, Security |
|
Julien Cathalo |
Français |
2012/07 |
Research Note 26: Security Information & Event Management (SIEM)
De IT-gerelateerde veiligheidsrisico’s voor bedrijven en overheidsinstellingen kennen een stijgende trend. Er bestaan verschillende – vaak complementaire – methoden om hiermee om te gaan. Dit rapport focust op SIEM (Security Information and Event Management), waarbij veiligheidsgerelateerde logs naar een centraal systeem gestuurd worden voor analyse om security threats te detecteren. Een belangrijk aspect hierbij is de correlatie, waarbij verbanden tussen logs gezocht worden.
Download: | Download - Link |
Annexes: | |
Languages: | Nederlands |
Author: |
Kristof Verslype
|
Category: | Research Note |
Date: | 2012/07 |
Size: | 712.4 KiB |
Keywords: | Network Security, Security |
|
Kristof Verslype |
Nederlands |
2012/03 |
Management Summary : Security Information & Event Management (SIEM)
IT-infrastructuren worden complexer en dynamischer, de cyberaanvallen gesofisticeerder en de aanvallers professioneler. Zowel interne als externe aanvallen vormen een bedreiging.
In een moderne IT-infrastructuur van een bedrijf worden vandaag de dag al snel miljoenen security gerelateerde logs door honderden of meer devices gegenereerd, potentieel vanaf verschillende geografisch verspreide locaties. Typisch zijn er op een dag hoogstens enkele incidenten. De uitdaging is om aan de hand van die miljoenen logs die paar incidenten in real-time te extraheren. Indien nodig kan dan ingegrepen worden om de schade te minimaliseren of kunnen achteraf maatregelen genomen worden om dergelijke incidenten in de toekomst te voorkomen. Dergelijke reactieve maatregelen vallen echter buiten de basisfunctionaliteit van SIEM.
Het extraheren van incidenten uit logs is wat SIEM-systemen op een geautomatiseerde manier beloven te doen. Daarnaast bieden ze de mogelijkheid achteraf uitgebreide analyses op de verzamelde logs te doen.
Download: | Download - Link |
Annexes: | |
Languages: | Nederlands |
Author: |
Kristof Verslype
|
Category: | Management Summary |
Date: | 2012/03 |
Size: | 242.3 KiB |
Keywords: | Network Security, Security |
|
Kristof Verslype |
Nederlands |
2012/01 |
Research Note 25: High Availability Concepts
Centraal in het debat rond High Availability staat het zogenaamde “CAP theorema” dat stelt dat de consistentie van gegevens en beschikbaarheid niet beide kunnen gegarandeerd worden en bijgevolg strikt tegen elkaar afgewogen moeten worden. Concreet komt het erop neer dat systemen niet op elk ogenblik over de meest up-to-date informatie kunnen bezitten, als men hoge beschikbaarheid vereist.
Hoewel dit onoverkomelijk en dramatisch lijkt, kan men dit euvel in praktijk vaak verhelpen op voorwaarde dat men hier reeds tijdens de requirements analyse rekening mee houdt. De levensduur en vluchtigheid van de gegevens moet in kaart gebracht worden evenals de eisen op vlak van beschikbaarheid voor elke use-case, in plaats van voor het volledige systeem.
Als dit proces rigoureus uitgevoerd wordt, kan tijdens de architectuurfase de beschikbaarheid aanzienlijk verhoogd worden met een factor 40x (van 90 tot 99.75%). De uiteindelijke beschikbaarheid wordt bepaald door de kans op falen (menselijk, configuratie, hardware, software), maar ook door de tijd die nodig is voor de detectie en het herstellen van het incident. Om deze reden is een goed geoliede organisatie essentieel.
In deze nota worden aanbevelingen geformuleerd ter verhoging van de beschikbaarheid tijdens requirements analyse, wanneer de architectuur wordt uitgetekend, tijdens development, op infrastructuurvlak. Ook wordt het belang van transparantie, governance en automatisering aangetoond. Gezien de breedte van het onderwerp, zal de bespreking beperkt blijven tot een high-level overzicht.
Download: | Download - Link |
Annexes: | |
Languages: | Nederlands |
Author: |
Johan Loeckx
|
Category: | Research Note |
Date: | 2012/01 |
Size: | 259.1 KiB |
Keywords: | Cloud Computing, Software Architecture, Software Engineering, Availability |
|
Johan Loeckx |
Nederlands |
2011/12 |
Management Summary : Predictive analytics
De meeste bedrijven en overheden hebben de voorbije jaren een enorme schat aan data verzameld. Deze data is echter vaak zo groot en divers dat het moeilijk wordt om ze te interpreteren en er iets uit te leren. Met behulp van data mining wordt het echter wel mogelijk om kennis uit grote en complexe datasets te halen. Data mining destilleert deze kennis uit data met behulp van technieken uit disciplines als machine learning, artificial intelligence en statistiek.
Data mining kan men op twee verschillende manieren aanwenden: om data uit het verleden te verklaren door middel van beschrijvende statistiek (descriptive analytics) of om toekomstige trends en evenementen te voorspellen (predictive analytics). In deze infosessie geven we een overzicht van predictive analytics technieken, hoe we deze kunnen toepassen alsook enkele praktische cases en tools.
Download: | Download - Link |
Annexes: | |
Languages: | Nederlands |
Author: |
Jan Meskens
|
Category: | Management Summary |
Date: | 2011/12 |
Size: | 66.7 KiB |
Keywords: | Business Intelligence, Big Data |
|
Jan Meskens |
Nederlands |
2011/05 |
Management Summary : Threshold Encryption (NL)
Dit document stelt het concept threshold encryption voor. Na een algemene
omschrijving wordt uitgelegd hoe en waarom threshold encryption gebruikt wordt
in de architectuur die de sectie Onderzoek van Smals voorgesteld heeft in het
kader van het project "Kluis". Tot slot worden enkele voorbeelden gegeven van
bestaande toepassingen die gebruik maken van threshold encryption.
Download: | Download - Link |
Annexes: | |
Languages: | Nederlands |
Author: |
Julien Cathalo
|
Category: | Management Summary |
Date: | 2011/05 |
Size: | 310.1 KiB |
Keywords: | Cloud Computing, Security, Storage Architecture |
|
Julien Cathalo |
Nederlands |
2011/05 |
Management Summary : Threshold Encryption (FR)
Ce document présente le concept de threshold encryption, d’abord de manière
générale, puis motive et décrit la manière dont il est utilisé dans l’architecture
proposée par la section Recherches de Smals dans le cadre d’un projet nommé
« Kluis ». Il termine par quelques exemples d’applications existantes qui utilisent
threshold encryption.
Download: | Download - Link |
Annexes: | |
Languages: | Français |
Author: |
Julien Cathalo
|
Category: | Management Summary |
Date: | 2011/05 |
Size: | 309.9 KiB |
Keywords: | Cloud Computing, Security, Storage Architecture |
|
Julien Cathalo |
Français |
2011/04 |
Deliverable 2011/TRIM1/03 : Cloud computing - Concept vaporeux ou réelle innovation ?
Le cloud computing a été le hype informatique de l’année 2010. Derrière ce terme un peu flou se cachent des concepts déjà connus tels que la virtualisation et l’externalisation des données.
Durant les derniers mois, les offres se sont multipliées et quasiment tous les acteurs majeurs de l’informatique proposent des solutions dans le cloud. Les petits acteurs proposent également des solutions dans le cloud en utilisant parfois les ressources matérielles mises à disposition par les géants de l’informatique que sont Amazon, Google ou Microsoft.
Le cloud existe sous plusieurs formes : on parle de cloud privé lorsque l’on mutualise les ressources de l’entreprise (au moyen de la virtualisation) et l’on parle de cloud public lorsque les données vont être placées directement chez le fournisseur. Cette dernière option suscite de nombreuses craintes légitimes, mais parfois également mal ciblées. Il ne faut pas perdre de vue que la sécurité est un enjeu majeur pour le fournisseur de services : il y va de sa crédibilité et un gros manquement pourrait s’avérer fatal. Garantir la confidentialité des données dans le cloud constitue un réel défi dans un monde où tous les grands noms de l’informatique sont américains. En effet, une loi américaine du nom de Patriot Act donne les pleins pouvoirs aux services secrets américains qui peuvent saisir du matériel dans les entreprises basées aux Etats-Unis sans en donner la raison. La seule parade pour les fournisseurs consiste à construire des centres de données en dehors des Etats-Unis pour ne plus être sous la juridiction de cette loi très contraignante.
Il existe une classification des services que l’on retrouve dans le cloud. Le type de service le plus populaire actuellement est le SaaS, qui consiste à mettre à disposition une application web prête à l’emploi et directement utilisable dès que le mode de paiement a pu être validé. La popularité de ces solutions vient de leur très faible coût d’entrée et de la rapidité de mise à disposition des utilisateurs. De plus, ces solutions s’avèrent généralement moins coûteuses que les applications traditionnelles, ne nécessitent pas de personnel technique pour la maintenance (aucun serveur à gérer) et il n’y a jamais de mise à jour à réaliser (les nouvelles fonctionnalités apparaissent progressivement).
S’il est facile de rentrer dans le cloud, en sortir est une opération plus délicate. Le cloud peut être utilisé sans trop de danger pour répondre à un besoin ponctuel, il sera probablement plus efficace et moins coûteux qu’une solution traditionnelle. Pour un usage à long terme, diverses précautions sont à prendre sous peine de ne plus maîtriser l’évolution des coûts. Quoi qu’il en soit, le cloud présente de nombreux avantages et mérite que l’on s’y intéresse : que ce soit pour les PME, les grandes entreprises ou le secteur public, il y a des opportunités à saisir dans le cloud (que ce soit en tant qu’acteur ou consommateur).
|
Grégory Ogonowski, Johan Loeckx |
Français |
2011/03 |
Deliverable 2011/TRIM1/04: Gestion intégrée des anomalies - Évaluer et améliorer la qualité des données
Comme le confirment les consultances de terrain, ou encore les résultats des travaux scientifiques ou « marketing », comme ceux de Gartner en 2010, la qualité des données revêt toujours des enjeux stratégiques pour l’egovernment. Par exemple, en Belgique, la DmfA (Déclaration Multifonctionnelle – Multifunctionele Aangifte) permet le prélèvement annuel d’environ 40 milliards d’euros de cotisations et prestations sociales. Or la DmfA est composée de données. On peut en conclure que leur qualité revêt des enjeux fondamentaux en termes de coûts-bénéfices. La question est d’autant plus sensible quand on sait que la législation et les procédures associées à la gestion de ces données sont complexes, évolutives et s’inscrivent dans des organisations hétérogènes. Face à cette réalité, Smals a créé un « data quality competency center » depuis cinq ans environ en vue de réaliser des travaux de consultance destinés à évaluer, à améliorer pratiquement la qualité des bases de données dans le domaine de l’egovernment et à réaliser des études en la matière. Le présent rapport propose plusieurs retours d’expérience originaux issus des travaux du DQ Competency Center. Ceux-ci sont présentés à travers la question des anomalies, ces valeurs déviantes par rapport au modèle attendu d’une base de données et dont on estime que le coût de traitement peut atteindre environ 15 % du revenu des entreprises dans les secteurs privé et public. Le but poursuivi dans cette étude consiste à clarifier la problématique et à présenter des solutions concrètes en vue de diminuer le nombre d’anomalies et d’en faciliter la gestion. Parmi les nouveautés de l’étude, citons les points suivants (chacun étant accompagné d’un modèle organisationnel adapté incluant des rôles métier et techniques) :
- La présentation d’un prototype permettant de suivre l’historique des anomalies et de leur traitement (correction, validation…) : celle-ci a été conçue sur la base de propositions originales du DQ Competency Center. Accompagnée d’un travail d’analyse, elle peut donner le jour à un développement grandeur nature adapté à un cas spécifique. Sur cette base, le rapport montre, à partir de « case studies », comment concevoir des indicateurs de suivi de la qualité des données et comment appliquer des stratégies de gestion en vue de diminuer structurellement le nombre d’anomalies en agissant sur la source de leur émergence.
- La présentation des aspects documentaires indispensables en vue d’accompagner le traitement des anomalies. Notamment, à partir d’une expérience de terrain, l’étude montre comment un système de gestion des connaissances généralisable permet de faciliter la correction des anomalies par les agents de l’administration.
- Un retour d’expérience issu de l’application des Data Quality Tools, acquis par Smals en 2009, à plusieurs bases de données de l’administration fédérale. À partir d’exemples concrets, l’étude montre comment ces outils facilitent la détection semi-automatique d’incohérences formelles et l’accompagnement de leur correction. Elle montre leur apport indéniable par rapport à un développement « home made » et les perspectives d’application.
|
Isabelle Boydens, Arnaud Hulstaert, Dries Van Dromme |
Français |
2010/05 |
Research Note 22: Portaaltools: sleutel tot een uniek toegangsscherm?
Doorgaans gebruiken medewerkers binnen een instelling een groot aantal verschillende toepassingen om hun taken uit te voeren. Deze toepassingen zijn gebaseerd op verschillende technologieën en hebben telkens een andere look & feel en een ander gedrag. Zo moet de gebruiker zich bijvoorbeeld ten opzichte van elke toepassing apart authenticeren. Bovendien is er weinig tot geen integratie tussen de toepassingen en moeten gegevens bijgevolg manueel overgetikt of gekopieerd worden. Ook is het geheel van toepassingen niet afgestemd op de specifieke rol van de gebruiker.
Voor velen zal deze situatie heel herkenbaar zijn. Een portaal kan een oplossing bieden voor deze ongemakken.
Download: | Download - Link |
Languages: | Nederlands |
Author: |
Bert Vanhalst
|
Category: | Research Note |
Date: | 2010/05 |
Size: | 813.4 KiB |
Keywords: | Portal |
|
Bert Vanhalst |
Nederlands |
2010/02 |
Deliverable 2010/TRIM1/01: Préservation à long terme de l'information numérique
L’utilisation croissante des technologies de l’information et de la communication a fait de la préservation à long terme de l’information numérique un enjeu crucial pour les entreprises et les institutions (quantité croissante d’informations numériques, réglementations imposant leur conservation sur des durées relativement longues, enjeux financiers importants, nombreux types d’informations – dans certains cas très complexes – à préserver).
N’étant par nature pas auto-explicative, l’information numérique naît de l’interaction entre une séquence de bits et des éléments hardware et software, la rendant dès lors soumise à l’évolution hétérogène de ces différentes composantes. Le problème est que l'ère du numérique dans laquelle nous sommes entrés est marquée par une évolution impressionnante des technologies (les unes remplaçant les autres).
Incluse dans l’archivage, la préservation consiste à maintenir les objets archivés en état, c’est-à-dire accessibles et compréhensibles par ses utilisateurs. Du fait de la fragilité inhérente de l’information numérique, sa préservation nécessite d’appliquer de manière continue tout au long du cyle de vie de l’information des stratégies techniques et conceptuelles qui ne sont efficaces que si elles sont encadrées par une organisation financée durablement.
Au niveau de l’organisation, un préalable indispensable est un engagement fort de la direction eu égard aux budgets et compétences qui devront être rassemblés. Tout projet de ce type doit commencer par une étude du modèle conceptuel Open Archival Information System (OAIS) devenu progressivement une norme incontournable dans le domaine et normalisée en 2003 par l’ISO. Permettant de saisir la problématique de manière globale (du point de vue fonctionnel et au niveau des informations à rassembler), il constitue un excellent guide pour la mise en œuvre de projets d’archivage à long terme. Pour être préservée, l’information numérique doit être maintenue dans un système qualifié de fiable sur les plans de l’organisation, de la gestion et des stratégies techniques et conceptuelles mises en œuvre. Divers modèles d’audit (dont le plus élaboré est DRAMBORA) existent et offrent une aide efficace pour évaluer la capacité d’un système à préserver l’information.
Le modèle OAIS n’offrant qu’un modèle conceptuel, il reviendra à chaque organisation de traduire cette organisation en différents services, chacun assumant une partie des tâches et des responsabilités.
Une fois ce cadre organisationnel élaboré, l’organisme souhaitant préserver ces informations doit recourir à diverses stratégies techniques et conceptuelles, appliquées de manière continue. Étant donné qu’il n’existe aucune solution globale et unique, nous insistons sur l’importance de combiner ces stratégies.
Les stratégies techniques et conceptuelles opérationnelles actuellement et complémentaires sont :
- la gestion des supports de stockage, incluant le choix des supports, leur contrôle régulier et leur remplacement ;
- la gestion des formats, comprenant le choix de formats qualifiés de pérennes, leur validation et le recours à des format viewers ;
- la migration régulière des données vers des nouveaux formats ou des architectures matérielles et logicielles plus récentes, en veillant à la compatibilité ascendante des logiciels et en prenant soin de documenter rigoureusement le processus de migration ;
- le recours aux métadonnées, base indispensable de toute autre stratégie. À cet égard, les standards développés ces dernières années (dont METS et PREMIS) offrent une aide indéniable.
Chacune de ces stratégies permet de préserver une ou plusieurs couches (physique, binaire, logique et sémantique) de l’information numérique.
Deux autres stratégies sont parfois présentées. L’encapsulation est intéressante mais encore peu mise en oeuvre aujourd’hui. L’émulation est utilisée aujourd’hui au niveau des supports de stockage. Au niveau logiciel, elle n’est clairement pas opérationnelle à l’heure actuelle.
Le coût de la préservation demeure un problème complexe à gérer, d’autant plus que ce coût n’est que difficilement chiffrable. Dès lors, en vue de le diminuer, diverses stratégies de mutualisation peuvent être mises en œuvre.
Download: | Download - Link |
Languages: | Français |
Author: |
Arnaud Hulstaert
|
Category: | Deliverable |
Date: | 2010/02 |
Size: | 1.7 MiB |
Keywords: | Content management, Database Management, Integrated Document and Output Management |
|
Arnaud Hulstaert |
Français |
2009/12 |
Deliverable 2009/TRIM4/01: Master Data Management - Mise en place d’un référentiel de données
Quelle que soit sa sophistication, un système informatique ne peut fournir une aide efficace que s’il traite et partage des données cohérentes et de bonne qualité. L’apparition de données hétérogènes entraîne notamment : (1) des dysfonctionnements opérationnels dans des processus métier critiques, (2) des choix stratégiques fondés sur des données potentiellement incohérentes et (3) la mobilisation d’importantes ressources afin de resynchroniser les données entre différents services, voire différentes organisations. Cette hétérogénéité est principalement due au cloisonnement des données au sein des différentes applications existantes qui demeurent difficilement interopérables.
Au final, les données sont généralement peu valorisables car dupliquées dans plusieurs silos fonctionnels, chacun exploitant sa propre base de données avec ses propres structures de données, sa propre interprétation de leur contenu et ses propres règles métier.
L’enjeu du Master Data Management (MDM) est de faciliter la gestion des données de référence transversalement à différentes applications en mettant en place une organisation de circonstance supportée par un référentiel de données. La mise en place d’un tel référentiel permettrait de se réapproprier ses données métier, de les enrichir et d’assurer leur pérennité, indépendamment des processus qui les manipulent. D’un point de vue opérationnel, l’approche MDM permet de mutualiser les efforts et d’assurer la synchronisation, le partage et la qualité des données à travers plusieurs silos d’informations en quasi temps réel.
L’approche MDM est directement liée au partage des données entre acteurs de la sécurité sociale et/ou des soins de santé. Aussi bien la BCSS que eHealth ont été des précurseurs dans ce domaine. Chaque jour, de nombreuses banques de données gèrent et partagent des données ; quelques exemples révélateurs sont : la signalétique des citoyens, la signalétique des travailleurs, la carrière des employés, l’identification des entreprises, les vaccinations, les dons d’organes, la description des médicaments, etc.
Clairement, l’approche MDM est au cœur du eGovernment et de eHealth. L’appropriation des concepts MDM par les institutions gouvernementales représente une opportunité pour faciliter la collaboration entre les consommateurs et les fournisseurs de données, faciliter la mise en place d’une approche SOA, améliorer les services associés aux banques de données et enfin mutualiser les efforts en terme de synchronisation des données, d’amélioration de leur qualité et de gestion des anomalies.
En revanche, les outils MDM doivent être manipulés avec précaution. Même si la complémentarité des technologies peut devenir un avantage indéniable, leur intégration est encore difficile au sein d’un seul outil. De plus, le support lié à la gouvernance des données est pour l’instant la pierre angulaire qui manque crucialement aux outils MDM. Enfin, l’intégration de ces outils avec les applications existantes peut s’avérer délicate.
Download: | Download - Link |
Languages: | Français |
Author: |
Jean-Christophe Trigaux
|
Category: | Deliverable |
Date: | 2009/12 |
Size: | 2.7 MiB |
Keywords: | Data quality, Master Data Management |
|
Jean-Christophe Trigaux |
Français |
2008/06 |
Deliverable 2008/TRIM2/02: Préserver l’information numérique : Codage et conversion de l'information
L’informatisation de notre société et la dématérialisation de l'information qui accompagne son développement actuel ont entraîné la gestion de quantités de données sous forme numérique. Ces informations, issues d’applications diverses, sont souvent hétérogènes dans leur format, de sorte que leurs échanges posent des problèmes importants pouvant profondément modifier la qualité des données.
Le problème est connu depuis de nombreuses années. Cependant, l’interconnexion des réseaux et des applications gérant des données similaires et devant de plus en plus interagir le rendent davantage stratégique aujourd’hui que par le passé. Cette situation rend ainsi problématique la multiplicité des solutions apportées et des formats utilisés et constitue un frein à un traitement optimal des données tout au long de la chaîne de traitement informationnel (stockage, indexation, recherche), tel que l’identification d’un travailleur présent dans une déclaration par comparaison avec les données situées dans d’autres bases de données de la sécurité sociale.
Le problème est aussi bien technique que conceptuel. Il faut bien entendu tenir compte des formats de codage disponibles et de leur support, tant au niveau du software que du hardware. Par ailleurs, beaucoup de formats disposent de nombreuses variantes nationales, généralement incompatibles sans conversion de l’information. Certains formats étant moins riches que d’autres, il est parfois nécessaire d’appauvrir l’information, par exemple en supprimant les caractères accentués et spéciaux. Cependant, les approches généralement locales du problème et de sa résolution ont entraîné, au sein des applications, l’apparition de nombreux formats et processus de conversions différents sans que les contraintes techniques ne le justifient à chaque fois.
A certains de ces problèmes, Unicode peut apporter des réponses mais il ne constitue en rien la solution parfaite et unique. Cependant, la richesse relative de l’information qu’il permet, sa compatibilité avec d’autres normes plus anciennes et largement répandues, ainsi que sa souplesse dans certaines manipulations de chaîne en font une évolution inévitable qu’il est nécessaire d’appréhender.
Afin de résoudre ces difficultés, il convient d’adopter une approche plus globale du traitement de l’information en définissant une politique de codage (afin d’en éviter la multiplicité et par là les conversions nécessaires) et une politique de conversion (pour gérer la qualité de l’information de manière cohérente) appliquées à l’ensemble des données.
Par ailleurs, dans le cadre de la préservation à long terme de l’information numérique, l’adoption de formats standards et ouverts, ainsi qu’une rationalisation de leur nombre est généralement considéré comme un pré requis. Outre cela, préserver la qualité de l’information, y compris en choisissant des formats permettant une compatibilité ascendante comme Unicode, permet d’en faciliter la conservation et la compréhension pour les futurs utilisateurs, tout en appréhendant mieux les changements technologiques.
Download: | Download - Link |
Languages: | Français |
Author: |
Arnaud Hulstaert
|
Category: | Deliverable |
Date: | 2008/06 |
Size: | 1.2 MiB |
Keywords: | Data quality, Database Management |
|
Arnaud Hulstaert |
Français |
2007/09 |
Deliverable 2007/TRIM3/02: Data Quality: Tools - Evaluer et améliorer la qualité des données
La qualité des données représente pour beaucoup d’organisations un défi de taille. Elle est considérée par les bureaux d’analystes Gartner et Butler Group comme un point critique pour le succès des initiatives SOA, la mise en place de systèmes de Business Intelligence, de Customer-Relationship Management, entre autres. Mais surtout, comme l’a souligné le premier deliverable consacré à cette thématique (« Data Quality : Best Practices »), la qualité de l’information est stratégique car elle désigne l’adéquation relative des données aux objectifs qui leur ont été assignés. De fait, au sein des administrations, des données inadéquates ou non pertinentes peuvent entraîner des effets extrêmement négatifs sur les plans financiers ou « business ». Ces effets peuvent toucher le traitement des dossiers des citoyens, les décisions stratégiques du management, les initiatives de données entre administrations, ou encore la construction de sources authentiques, pour ne citer que quelques exemples.
Comme l’a montré l’étude « Data quality : Best practices », il est primordial d’agir, de manière continue, à la source des concepts et flux d’information alimentant un système d’information. En effet, si l’on se contente de corriger les données inadéquates, sans traiter les causes, on se trouve face à un travail aussi inutile qu’infini. Un système d’information est un fleuve et un travail exclusif de correction des valeurs inadéquates n’endigue pas l’arrivée régulière de nouvelles données non pertinentes. Toutefois, en complément de cette approche, il peut être crucial de disposer d’outils intervenant au sein des bases de données pour deux raisons. D’une part, il faut pouvoir traiter le passé : données inadéquates (doubles, incohérences) déjà incluses dans les bases de données. D’autre part, le traitement à la source ne garantit pas dans l’absolu l’absence de saisie de valeurs inadéquates (émergence de doubles suite à des erreurs orthographiques, par exemple).
Dans ce contexte, un marché d’outils dédiés à l’analyse et à l’amélioration de la qualité des bases de données s’est fortement développé depuis plusieurs années. Il a d’ailleurs été reconnu comme un marché à part entière par Gartner, qui lui a consacré un premier « Magic Quadrant » en avril 2006. Ce rapport détaille l’offre actuelle en la matière : « profiling » (audit formel d’une base de données), « standardisation » des données et « matching » (détection de doublons et d’incohérences au sein d’une ou plusieurs sources). Sur la base d’un case study relatif à une base de données administrative « grandeur nature », il montre les avantages des « data quality tools » par rapport à un développement « in house » : qu’il s’agisse du temps de développement, de la richesse algorithmique (quantité de règles réutilisables) ou encore, du recours à des bases de connaissances multilingues régulièrement mises à jour (concernant les adresses, par exemple). En conclusion, ces outils, qui offrent également un traitement plus souple et rapide en cas de « change request », paraissent indispensables pour toute organisation au sein de laquelle la qualité de l’information est considérée comme un facteur crucial.
|
Dries Van Dromme, Isabelle Boydens, Yves Bontemps |
Français |