Archive for the ‘Actualités’ Category

Bonne année 2017

Vendredi, janvier 6th, 2017

Une nouvelle année signifie la mise à jour de toutes les dates à côté des licences… que ce soit dans les différents code mais aussi des sites web statiques et des blogs.

Page installation pour Linux Debian 9

Samedi, novembre 12th, 2016

La documentation est en cours de rédaction pour Linux Debian 9 avec la version 020161112.

Cette version de Debian est étiquetée comme testing, c’est à dire qu’elle est en cours de stabilisation pour être la prochaine version stable. Mais ceci dit, elle est quand même déjà très stable à l’usage.

Page installation pour Linux Ubuntu 16.04

Dimanche, septembre 4th, 2016

La documentation d’installation est en cours de rédaction aussi pour Linux Ubuntu 16.04 LTS avec la version 020160830.

Cette version de Ubuntu propose par défaut la version 7 de php. C’est donc aussi un test sur cette toute nouvelle de php et à première vue ça fonctionne correctement.

Si l’installation de Ubuntu s’est faite avec 512Mo de RAM, à 256Mo ça ne passe pas, le serveur tourne ensuite sans problème avec Apache2/PHP7 avec 256Mo seulement… et étonnamment le bootstrap et les applications tournent aussi sur cette configuration réduite !
C’est bon signe, les optimisations du code sont efficaces.
Le serveur de test : ubuntu16.test.nebule.net

Page installation pour Linux Debian 8

Jeudi, septembre 1st, 2016

Des pages ont été créées pour l’installation du bootstrap sur différents systèmes d’exploitations.

La première documentation est en cours de rédaction pour Linux Debian 8 avec la version 020160830.

Caliopen

Mardi, août 11th, 2015

Depuis le début de Caliop ou pas loin, je regarde ce qui s’y passe. Aujourd’hui ce projet de messagerie sécurisée continue sous Caliopen.

Ce n’est pas un service tout à fait comparable à ce que propose nebule. C’est un service qui se veut compatible avec la messagerie smtp. Cela implique la présence et l’utilisation de serveurs centraux de messagerie. Ensuite, si l’interface mélange les différentes sources de messages comme SMS, emails et tchats, il ne semble pas y avoir d’autres moyens d’échange ou de gestion de l’information.

Dans l’interface proposée, il y a une chose intéressante. Dans la vue de boite d’entrée, on a deux curseurs permettant de montrer les messages.

Le premier curseur gère le niveau de sécurité des messages affichés. Lors des échanges de messages, on doit s’attendre à ce que la confiance dans le contenu des messages soit forte ou à défaut qu’un indicateur de cette confiance pondère son contenu. Il est un peu étonnant qu’il y ai un seuil haut et bas. Quel sera l’usage du seuil haut que l’on abaisserait ? Le niveau de confiance d’un message est calculé sur la façon dont il est transmis, le réseau proche utilisé, et la cryptographie employée.
Dans nebule, cette confiance n’est pas vraiment calculée. Les réseaux utilisés et les serveurs parcourus ne sont pas source de calcul d’une confiance. Ils ont par défaut une confiance nulle. C’est la façon de parcourir de multiples serveurs de façon aléatoire qui va palier au manque de confiance dans les réseaux et les serveurs. Par contre, un curseur social sera définit et les liens seront triés en fonction de seuils. Et ce curseur dépendra surtout de l’entité avec qui on correspond. Une pondération automatique sera possible pour les entités inconnues en fonction des entités connues qui la reconnaissent. Pour la cryptographie, chacun peut librement choisir ce qu’il utilise et ce qu’il protège, c’est comme pour Caliopen.

Le second curseur gère l’importance des messages avec un seuil haut et bas. là aussi il y a un seuil haut dont l’usage est à voir en pratique. L’importance est donnée par l’émetteur du message.
Dans nebule, l’importance n’est pas fixée par l’émetteur mais est calculée en fonction de l’émetteur et des liens vers des objets pondérés. Il est même possible de simuler en public une importance forte à une entité en particulier mais en réalité de dissimuler que cette entité n’en a pas.

La découverte de nouvelles personnes avec qui converser se fait par divers moyens. Mais il faut bien vérifier la clé publique. Caliopen propose d’utiliser le DNS. Tout le monde peut contrôler un nom de domaine ou appartenir à un nom géré par quelqu’un d’autre. Il est possible de transmettre par ce biais une clé publique pour une adresse (email) correspondante. On rend difficile l’usurpation d’une identité.
Avec nebule, en l’absence de vérification directe d’une entité et donc d’une pondération forte, on fait confiance à des entités proches pour pondérer cette entité que l’on ne connais pas. C’est un peu le système utilisé dans PGP.

Je continue à regarder l’évolution du projet en espérant qu’il ne capotera pas comme tant d’autres…

Libervia

Jeudi, juin 18th, 2015

Dans les projets qui ont un peu les mêmes but que nebule, voici le projet Salut à Toi. Un financement participatif est en cours pour Libervia, une interface web de SàT. Libervia est à SàT ce que sylabe est à nebule.

L’ensemble fonctionne par dessus le protocole XMPP et son système d’extensions XEP. Le programme réutilise un protocole solide et ouvert. Mais il est dépendant de serveurs sur internet. Un client peut facilement changer de serveur en cas de problème mais son adresse reste attachée au serveur d’origine et elle est donc perdu lors du changement. Ce protocole d’échange permet à tout le monde de créer son propre serveur et d’échanger avec tout le monde.

Le chiffrement et l’anonymisation sont des propriétés liées au protocole utilisée, ouvert et connu. Rien à dire.

On peut aussi mettre en place un serveur non relié à internet, mais il n’y a aucun mécanisme de partage de données entre ce serveur isolé et le reste des serveurs, hors copié/collé à la main par fichiers. C’est sur ce point que nebule présente un avantage, il permet de transférer des données via des passerelles (air gap) tout en conservant les informations annexes aux données comme les actions ou les destinataires par exemple.

Facebook et l’anonymat

Mercredi, octobre 8th, 2014

Les positions bougent aussi du côté de Facebook. Dans la suite de l’article précédent sur Google+ et l’anonymat, c’est au tour du premier réseau social de faire des concessions sur la possibilité de créer des comptes anonymes… dans une certaine mesure.

Depuis le 1er octobre, il est possible d’utiliser un pseudonyme. Tout n’est pas encore permit mais l’avancée est de taille alors que la vie privée n’était clairement pas la priorité de Facebook. Et l’anonymat était même malvenu jusque là pour inciter les internautes à avoir de vraies relations d’amitié. Il était aussi quand même plus intéressant pour les publicitaires de disposer d’informations fiables sur les utilisateurs…

Depuis peu, une nouvelle messagerie est en cours d’élaboration, par Facebook, pour permettre des échanges volontairement anonymes. Un vrai retournement… ou une opportunité commerciale de plus…

CF :
http://www.lemonde.fr/economie/article/2014/10/02/les-pseudonymes-finalement-autorises-sur-facebook_4498801_3234.html
http://www.lemonde.fr/pixels/article/2014/10/08/facebook-va-lancer-une-application-permettant-des-echanges-anonymes_4502637_4408996.html

Reset the net

Jeudi, juin 5th, 2014

resetthenet.org-banner-take-back

Un petit bandeau militant pour que l’Internet redevienne la propriété et l’espace d’expression de tous.

WatchDox

Vendredi, janvier 3rd, 2014

Un article de Wired parle de WatchDox, une (relativement) nouvelle solution de partage de données incluant une protection au niveau de la donnée elle-même.

En résumé, c’est un système type nuage (cloud computing) qui s’interface avec la suite Office de Microsoft et la visionneuse de PDF de Adobe. L’utilisation est donc assez pratique pour qui est full Microsoft, mais aussi assez bridée de fait.
Le véritable intérêt, et ce qui le démarque de la concurrence, c’est que la protection de la donnée se fait au niveau de la donnée elle-même. Ce n’est pas géré de façon globale sur un serveur par des droits génériques et hérités mais qui ne s’appliquent que sur le serveur.
Il est notamment possible d’interdire la retransmission d’un document ou son impression, et plus encore. Cela ressemble beaucoup comme ça à ce que permet le PDF si on utilise les outils de Adobe, justement…
Il y a aussi une fonctionnalité de traçage des consultations. Chaque destinataire légitime d’un document peut l’ouvrir. Le propriétaire, l’expéditeur, sait qui l’a consulté et quand.

Au début, je me dis que j’ai enfin quelque chose qui ressemble à nebule, une gestion et une sécurisation des documents pensées au niveau du document lui-même. Il va être possible de confronter les principes sous-jacents à nebule avec quelque chose de proche…

L’enchantement ne dure pas longtemps. Pour remettre tout de suite le contexte de WatchDox, la société n’est pas encore rentable avec 10M$ de revenus annuels.
Ensuite, oui on gère des droits de diffusion au niveau de chaque documents. Mais on est finalement loin de nebule dans le fonctionnement. La donnée est chiffrée et taguée avec des droits. Ces droits sont des droits dits faibles parce qu’ils vont à l’encontre d’une règle simple : toute information que l’on transmet, on en perd irrémédiablement le contrôle.
Alors, ou est l’ambiguïté ? C’est simplement que cette solution repose sur le programme qui gère les données. La cryptographie permet de s’assurer que la donnée ne sera pas volée en cours de transmission, mais la sécurité des restrictions de (re)partage des données ne tient que sur le programme. De plus, bien que l’on puisse imaginer un cache local des données chiffrées, il faut impérativement être connecté pour exploiter les données et ainsi permettre à la traçabilité de fonctionner.
Cela veut dire qu’il est impossible de rendre publique le code du programme ou même son fonctionnement. Sinon il deviendrait possible de concevoir un programme pour manipuler les données en récupérant (légitimement) la clé de chiffrement mais aussi par exemple en permettant d’outrepasser les restrictions de partage.
Cela exclu aussi de fait toute standardisation ou interopérabilité de cet outil à d’autres produits plus ouverts, une implémentation libre par exemple.

Cette solution ne peut donc prétendre interdire la perte d’information, c’est conforme à la théorie. D’ailleurs, l’article reconnaît qu’il est toujours possible de voler l’information qui s’affiche à l’écran, même en mode paranoïaque. Elle permet quand même d’augmenter sensiblement la difficulté du vol d’information. Il reste à voir comment la gestion des droits va se passer au bout de quelques années et avec plusieurs centaines de milliers de documents…
Il reste la partie chiffrement des données dans le nuage qui peut sérieusement justifier la mise en place d’une solution comme WatchDox. Mais quelle confiance peut-on avoir en un système pour lequel on ne peut espérer obtenir le fonctionnement réel, et donc sur lequel aucun audit de sécurité sérieux et impartial ne peut être mené ?

Description du projet

Dimanche, décembre 22nd, 2013

La page de description du projet nebule est terminée. Elle pourra subir quelques ajustements mineurs si besoin.

PRISM off

Vendredi, novembre 15th, 2013

Les révélations de Edward Snowden ont fait l’effet d’un ouragan… dans un verre d’eau. Tous les journaux se sont indignés. Beaucoup de gens se sont inquiétés. Quelques uns ont changé leurs pratiques. Peu ont fait quelque chose pour que la situation ne se reproduise pas.

Il ne faut pas se leurrer. Ce que fait la NSA est certes très avancé, mais d’autres pays sont sûrement proches dans la sophistication du dépouillement de la vie privée des gens, des entreprises et des gouvernements. La situation particulière des USA tient en sa concentration de grandes sociétés des technologies de l’information. Il y a aussi la grande concentration d’arrivée de câbles sous-marins. Sur ce dernier point, son alliance avec la Grande Bretagne (et peut-être d’autres) amplifie encore plus le pouvoir de journalisation de l’Internet détenu par la NSA. Mais d’autres pays sont à même de scruter une part non négligeable du réseau même si c’est dans une moindre mesure. Et pour l’accès aux données utilisateurs détenues par les sociétés des technologies de l’information, si c’est plus facile de simplement demander gentillement de poser un boîtier TAP dans une salle serveur (Google, Facebook, Twitter, Microsoft, Yahoo, Apple, etc), il est tout à fait envisageable de voler ces données à distance. Il faut dans tout les cas des moyens financiers et humains conséquents. Ces moyens sont à la porté d’une grande partie des états mais aussi de grands groupes industriels ou criminels.

La plupart des gens oublieront vite que la NSA peut s’intéresser à eux en dehors de tout cadre légal. Mais à ceux pour qui cela aura été un électrochoc, de nouvelles solutions sont en cours de développement pour palier à celles qui ont fermées préventivement (Lavabit et Silent Circle). Le mouvement de création de nouveaux outils semble d’assez faible ampleur. Il faut cependant compter que quand des développeurs mettront en place un nouveau système, ils penseront forcément à la NSA, c’est maintenant dans tous les esprits, dans l’air du temps. Rien ne sera plus comme avant.

On peut considérer que le projet nebule est maintenant dans ce mouvement même si il date d’avant les révélations de Edward Snowden.

Parmi la presse, il ressort plusieurs projets directement destinés à contrer la NSA et ses équivalents (liste non exhaustive) :

  1. Dark Mail Alliance : c’est un projet porté par les feux Lavabit et Silent Circle, donc des gens qui ont l’expérience et qui savent de quoi ils parlent.
  2. Bitmessage : c’est un projet, apparemment encore expérimental, de messagerie chiffrée, anonymisée et P2P. Il est porté par Jonathan Warren.
  3. Briar project : c’est un projet de Eleanor Saitta et Michael Rogers au sein de l’OpenITP. C’est ce qui s’approche le plus du projet nebule dans son concept.
  4. Cryptocat : c’est un logiciel de messagerie instantanée chiffrée créé par Nadim Kobeissi.
  5. Caliop : c’est un projet franco-français qui semble avancer en sous-marin et qui ne semble pas vouloir révolutionner ce qui existe.

CF : http://www.slate.fr/monde/79450/mission-reparer-votre-internet-casse-surveillance

Page de description – suite

Mardi, octobre 29th, 2013

Voici quelques modifications qui donnent suite à la rédaction d’une nouvelle page de description de nebule en remplacement de la page « A quoi ça sert?« .

Il est difficile de trouver un cheminement clair entre certaines idées et leurs traductions dans nebule. Peut-être déjà parce que l’ensemble n’est pas non plus encore vraiment figé.
Mais le plan de cette page semble cette fois plus stable.

L’ancienne page « A quoi ça sert? » vient d’être désactivée. Le contenu reste cependant encore visible dans la précédente partie de cet article.

RSE ou RSE ?

Mardi, septembre 10th, 2013

En recherchant la définition de l’acronyme RSE, je tombe sur deux définitions… Problème assez récurrent en fait avec les acronymes puisque n’importe qui peut en inventer et les utiliser sur la place publique à son bénéfice.

D’un côté j’ai une belle page bien fournie sur Wikipédia et une page gouvernementale officielle parlant de Responsabilité Sociétale des Entreprises :
Responsabilité Sociétale des Entreprises – Wikipédia
Qu’est-ce-que la responsabilité sociétale des entreprises – Ministère du développement durable
On y parle donc de responsabilité des entreprises, de développement durable, de gestion de risques, des impacts environnementaux et sociaux, enjeux, investissements, outils, normes, médiatisation, aspects juridiques, etc…

De l’autre un article sur 01net.com qui surfe sur la vague des révélations sur PRISM, ce qui n’est pas un mal en soi :
Le RSE : un lanceur d’alerte en entreprise – 01net
On retrouve bien en fin d’article un paragraphe sur le RSE, l’environnement et les risques. Mais RSE, répété à l’envie tout au long de l’article, désigne ici Réseau Social d’Entreprise. En gros un simili Facebook restreint au périmètre de l’entreprise.
Mais n’y a-t-il pas déjà un terme pour cette fonctionnalité? Oui, c’est le groupe de travail (groupware). Ah oui, c’est vrai, le créneau sur ce nom est déjà bien plein. D’un autre côté, la RSE ne doit pas plaire à beaucoup de chef d’entreprises. Bref, Voila typiquement un article à visée commerciale…

Mais ce post n’est pas là pour critiquer l’article. Les acronymes posent un problème de gestion de leurs définitions. Celles-ci ont rarement une portée globale, elles n’ont souvent qu’une définition de portée locale ou régionale. C’est cette absence de centralisation qui, à priori, serait la source des conflits.

Comment vont se comporter les acronymes dans nebule?
Reprenons le cas de la RSE. En pratique, c’est l’objet cec7b8a511f6d30def09266e7595f1dd9a301b3ba868444d2b14236dccc127b1. Aujourd’hui, cet objet n’existe sur aucune machine supportant nebule, mais si il était créé ce serait avec cette empreinte (sha256).

Premièrement, cet objet peut être marqué par des liens de type subdivision s. Il est en effet possible avec ce type de lien de savoir qu’un texte, un article de presse par exemple, contient cet acronyme. Cela facilite la recherche.
Cet exemple d’acronyme est trop petit mais le principe reste valable, le même article de presse peut être téléchargé morceaux par morceaux par ses abonnés. C’est un fonctionnement de type P2P. Chaque morceau connu peut être téléchargé à des endroits différents, puis l’article de presse peut être reconstitué. En pratique, on accélère donc les échanges d’objets.

Ensuite, L’objet de l’acronyme peut aussi être marqué par des liens de type dérivation f. Ces liens peuvent renvoyer vers d’autres objets contenant la ou les définitions de l’acronyme.
C’est un intérêt pour résoudre les conflits autour des définitions d’acronymes. En effet, chaque lien est signé par une entité, donc on sait qui en est l’initiateur. Et comme toute entité gère individuellement ses propres relations de confiances, la définition d’un acronyme sera donc dépendante des entités à qui on fait confiance, mais aussi en fonction de leur niveaux de confiance relatifs.
Donc, si on a une forte confiance en l’état, ce sera la RSE. Si on a une grande confiance en l’auteur de l’article de 01net, alors ce sera le RSE. Si on est chef d’entreprise, il y a de fortes chances que ce soit la RSE de toute façon…

Individu, sociabilité, universalité

Lundi, septembre 9th, 2013

L’affaire PRISM révélée par Edward Snowden n’en finit pas de provoquer des secousses numériques autour de la NSA, des grosses sociétés américaines et de la vie privée des citoyens/sociétés.

On entend parler régulièrement de la possibilité de créer de multiples chemins de communications entre individus. Ici multiple est à comprendre dans le sens où chaque connexion passe par un certain nombre de serveurs différents et ce de façon anonyme pour les serveurs. Ceci dans le but de garantir l’anonymat de l’internaute.

Il existe TOR pour la navigation. Ce pourrait être le cas avec la messagerie (Caliop ?). Mais est-ce une solutions suffisante?
Le journal Lemonde a publié un article sur un internet décentralisé pour des usages centralisés (cf lien). Rien que le titre suffit à exprimer tout le paradoxe de notre utilisation de l’internet…

Un autre problème s’ajoute, l’anonymisation est aussi utilisée par des criminels. Tout en sachant que les criminels d’un pays/communauté sont parfois les héros d’un autre. Comment distinguer l’utilisation légitime, ce qui est bien ou pas? Vaste débat.
Un outil ayant uniquement une structure globale mélange les usages légitimes et réprouvés, quel qu’en soit leur acceptation. Un outil qui respecte une structuration régionale ou locale est plus à même de coller à l’acceptation de certains usages, ou à leur régulation. Il est aussi capable de suivre l’évolution des mœurs et usages tout en permettant des échanges globaux.

Le projet nebule peut-il apporter quelque chose? Je pense que oui, quelque chose de nouveau surtout. Aujourd’hui, tous les efforts portent sur des tentatives de sécuriser les serveurs centraux, les relais intermédiaires, les chemins empruntés et les protocoles. Cette nouvelle chose que propose nebule est de penser directement au niveau de la donnée, de gérer sa confidentialité et ses échanges.

La structure locale de nebule est de taille variable. L’individu est la base. Il met en place naturellement des échanges dits sociaux proches jusqu’à une organisation de la taille d’un pays. Il est aussi capable d’exploiter de façon universelle des informations quelles qu’en soient leurs localisations.

Liens :
Lemonde – Bitcoin, BitTorrent, TOR : un internet décentralisé pour des usages centralisés
http://fr.wikipedia.org/wiki/PRISM_%28programme_de_surveillance%29
http://fr.wikipedia.org/wiki/Tor_%28r%C3%A9seau%29
https://www.torproject.org/
http://www.caliop.net/

Quantification commune de la disponibilités des relais – suite 2

Samedi, août 24th, 2013

Suite à l’affaire PRISM et grâce à Edward Snowden, on redécouvre les joies du Time Pattern sur les paquets réseaux.

Cela à potentiellement une implication dans la façon dont on peut synchroniser des objets et liens depuis d’autres entités. C’était le sujet abordé dans les posts Quantification commune de la disponibilités des relais et suite.

La conclusion est qu’il faut deux modes. Un pour optimiser les temps de téléchargement, et un autre plus aléatoire pour améliorer l’anonymisation des téléchargement et casser le Time Pattern

Page de description

Samedi, août 10th, 2013

La page A quoi ça sert ? du blog n’est pas adaptée pour décrire ce qu’est le projet nebule, son contenu et ses principes. Cette page va être remplacée progressivement par une nouvelle page Description, qui reste à rédiger…

::

(suite…)

OMS et openPDS

Jeudi, juillet 11th, 2013

Un article intéressant de InternetActu fait découvrir openPDS (Personal Data Store). On y retrouve les bases autour desquelles gravitent un certain nombre de recherches sur l’amélioration de la gestion des données privées. C’est surtout sur leur contrôle de ces données par l’utilisateur légitime, et notamment leur divulgation volontaire à des tiers. C’est un projet fait en collaboration avec ID3 et dont la base technique est Open Mustard Seed (OMS). OMS est à openPDS ce que nebule est à sylabe.

La solution semble reposer sur un espace de stockage et de traitement centralisé. L’espace de stockage est voulu comme étant sous contrôle exclusif et complet de l’utilisateur détenteur. Le traitement centralisé avec les données permet d’extraire une partie des données sans en exporter plus que demandé. L’export de données pour un traitement délocalisé semble poser un problème pour les auteurs de openPDS. Rien ne semble prévu notamment pour conserver localement certaines données en cache ou pour un mode déconnecté. Les données ainsi pré-traitées peuvent être transmises aux tiers extérieurs.

La centralisation du stockage permet logiquement une grande cohérence de gestion des données. Tout étant en un emplacement unique, le traitement peut en permanence accéder à tout. Il est sûrement prévu un mécanisme de sauvegarde des données dans un autre emplacement, mais c’est un autre débat. Cette centralisation va poser à mon avis deux problèmes. Le premier est la disponibilité en cas de panne de l’infrastructure de stockage. La deuxième réserve concerne le traitement. Pour traiter les données, il faut accéder aux données. Mais en permettant à une machine d’accéder aux données, on permet aussi aux administrateurs d’y avoir accès. On retombe finalement sur une sorte de solution de cloud assez classique. Finalement, qu’est ce qui garanti que les données ne sont pas exploitées par derrière par l’opérateur technique du cloud ? En l’état, rien.

L’identité des personnes est assurée par OAuth2 ou OpenID. La confiance dans les identifiants entre personnes est gérée par une notion de rôles, c’est à dire des groupes auxquels on attribue des droits.

Le site de référence de openPDS ne dit pas quelle genre de données peuvent être stockées et traitées, ou plutôt la variété des données. On manipule potentiellement plus que la géolocalisation, des données bancaires par exemple.

OMS semble vouloir de son côté s’assurer de la bonne application des préférences de confidentialité définies par l’utilisateur légitime sur ses données. Il faut voir comment l’implémentation est réalisée, mais la théorie montre que c’est illusoire.

Enfin, l’ensemble se base sur de la cryptographie pour identifier les personnes et leurs échanges avec les PDS. Mais les données ne semblent pas en profiter. Tout se base sur des droits d’accès, donc des droits assez faibles.

Bon, la critique est facile. OMS et openPDS sont encore très jeunes. Il faut voir comment cela évoluera dans le temps…

L’article de InternetActu fait aussi référence à MesInfos, une initiative de la Fing. Ici l’étendue des données est visiblement assez restreinte : consommation, finances, communication, navigation, mobilité, santé, emploi et énergie. En fait, ça regroupe des domaines de données mais pas des types de données. Le but est ici encore de permettre à l’usager de se réapproprier ses données et leurs usages. Est on est ici aussi au stade de la réflexion préliminaire.

Liens :
http://openpds.media.mit.edu/
http://www.internetactu.net/2013/07/03/dautres-outils-et-regles-pour-mieux-controler-les-donnees/
http://idcubed.org/
http://idhypercubed.org/
http://fing.org/?-MesInfos-les-donnees-personnelles-
http://fing.org/

Power and the Internet

Mardi, février 12th, 2013

Voici un essai intéressant publié par Mr Schneier sur son blog. Il y est question de l’évolution de l’Internet ainsi que des bouleversements qu’il introduit dans les rapports de forces entre les états (et pas que) et les administrés, c’est à dire le peuple. Toute évolution technologique introduit ce genre de bouleversement et c’est l’occasion de rendre le monde plus humain. Mais saurons-nous en profiter cette fois-ci ?

Je m’arrêterais sur la dernière remarque :
Either we fight for a seat at the table, or the future of the Internet becomes something that is done to us.
(Soit nous nous battons pour une place à la table, ou l’avenir de l’Internet deviendra quelque chose qui est fait pour nous à notre place.)

Liens :
http://www.schneier.com/blog/archives/2013/01/power_and_the_i.html
http://www.schneier.com

Ajout du 23/03/2013 :
http://www.internetactu.net/2013/03/21/pouvoir-et-internet/
http://www.framablog.org/index.php/post/2013/03/18/internet-etat-policier-surveillance
http://www.technologyreview.com/view/512386/danger-lurks-in-growing-new-internet-nationalism/

Yubikey et la double authentification

Samedi, janvier 26th, 2013

Une des bêtes noires de la sécurité des utilisateurs et de leurs informations sur l’Internet est le mot de passe. Ou plutôt devait-on dire la multitude de mots de passes et de comptes utilisateurs qui vont avec.

Chaque service web nécessite un compte utilisateur pour être utilisé, normal. Ce qui est moins normal, c’est que cette identification reste assez strictement localisée au service en question. A part quelques tentatives qui n’ont remportée qu’un succès d’estime, chaque service gère jalousement ses utilisateurs. Il en résulte un multitude de comptes utilisateurs différents avec potentiellement autant de mots de passes.
La gestion de l’identité sur l’Internet est un vrai problème. La gestion des mots de passes associés encore plus. Même si l’on met le même mots de passe partout, il faut régulièrement le retaper. Et bien sûr, avec un mot de passe unique, on devient vulnérable au premier service qui ne sécuriserait pas correctement ceux-ci.

Yubico propose une solution basé sur le mot de passe à usage unique (OTP – One Time Password). L’ensemble fonctionne sur le principe de ‘ce que je connais‘ et ‘ce que j’ai‘. La double authentification repose donc sur deux moyens combinés de prouver son identité. On doit fournir les deux ou prouver que l’on détient les deux.

  1. Ce que je connais‘, c’est typiquement un nom d’utilisateur et un mot de passe.
  2. Ce que j’ai‘, c’est un objet dont je dispose. Cet objet doit être capable de prouver sa présence de façon numérique. C’est ici la YubiKey.
  3. Ce que je suis‘, c’est le plus dur à obtenir… puisque c’est généralement ce que l’on cherche.

La clé YubiKey branchée en USB émule un clavier et envoie un mot de passe OTP lorsque l’on appuie sur un bouton de la clé. Ce mot de passe unique est dérivé de l’identifiant de la clé, d’un numéro de séquence, d’une empreinte CRC et de divers autres champs. Le tout est converti en caractères imprimables et envoyé comme si il était tapé sur un clavier.
Ce OTP est transmis au serveur en même temps que le nom d’utilisateur et éventuellement un autre mot de passe (double authentification). Le serveur le transmet au YubiCloud pour vérification et attend une réponse positive ou négative sur la validité de l’OTP pour donner l’accès au service à l’utilisateur… ou pas.
L’OTP change à chaque fois et ne peut être rejoué. Il peut donc être divulgué une fois utilisé.
La YubiKey peut être volée, sans le compte à utiliser (ou le deuxième mot de passe) elle est inutilisable.
Si double authentification, le mot de passe peut être volé (keylogger), il n’est pas utilisable sans la YubiKey à côté.

Une des propriétés intéressante de cet implémentation, c’est que l’on peut voir l’ensemble comme la transmission de messages chiffrés (symétrique) entre la YubiKey et la YubiHSM. Toutes les clés connaissent l’unique (ou pas loin) mot de passe secret de chiffrement. On fait confiance au matériel (les clés USB) pour savoir garder le secret.

Le système est de loin préférable à la simple authentification par mot de passe. Mais il n’en présente pas moins des problèmes :

  1. Une petite polémique est apparue sur la robustesse réelle du système. Un CRC16 permet de vérifier la validé du paquet. Ce CRC est inclus dans les données chiffrées et couvre donc 128-16=112bits. En jouant des paquets au hasard, il y a 1/(2*2^16) chances que la signature du CRC16 soit cohérente avec le reste. Si l’on compte qu’il faut statistiquement parcourir la moitié des valeurs pour en trouver une bonne, cela donne une probabilité de 1/(2^16). Cependant, dans les données chiffrées, il y a aussi le champ private identity de 6 bytes=48bits. Ce champs étant vérifié comme nul ou valide par les serveurs, la probabilité remonte à 2*1/(2^(16+48)) soit 1/(2^63). Ce qui sauve les meubles c’est que l’attaque doit passer par le réseau, la solidité réelle de l’ensemble est de 2^63 et non de 2^128…
  2. Il faut la coopération active des services qui authentifient les utilisateurs. La méthode d’authentification doit être modifiée pour supporter la vérification de l’OTP en liaison avec le YubiCloud, l’infrastructure qui valide réellement l’authentification. Pour les personnes qui gèrent elles-même leurs blogs ou autres services, c’est un réel gain. Mais pour un gros acteur de l’Internet c’est plutôt une ingérence sur un sujet sensible que sont les utilisateurs et tout ce qu’ils rapportent. Cela à donc autant de chance d’être adopté que d’autres solutions par le passé comme OpenID, faible.
  3. La solution nécessite une connectivité vers l’Internet et le YubiCloud pour valider l’authentification. Impossible donc de travailler hors-ligne. Il y a 5 serveurs dans le monde, c’est déjà pas mal mais c’est aussi encore trop peu pour résister à un DDOS ciblé. Et en cas d’absence de connexion prolongée aux serveur, tous les services associés sont eux-aussi paralysés. On a un point de défaut unique.
  4. Comment va se comporter l’ensemble lorsque le compteur anti-rejeu va boucler ? La clé ne marchera plus. La taille du compteur est de 15bits=32768 utilisations (avec branchement de la clé).
  5. Volontairement, la YubiKey ne peut être mise à jour. La clé est accessible en lecture seule, ce qui empêche la diffusion de virus et réduit la surface d’attaque de celle-ci. Mais que se passera-t-il quand, inévitablement, une faille sera trouvée sur cette clé ? Poubelle.

D’autres questions restent en suspend. L’analyse rapide de la documentation sur le site web de Yubico ne permet pas d’y répondre.

  1. Clé unique de chiffrement AES entre toutes les clés YubiHSM ? Ou une clé AES par YubiHSM ? Ce système de clés secrètes interdit notamment toute concurrence avec les mêmes clés. Utiliser la cryptographie asymétrique plutôt que symétrique aurait permit bien plus de choses et relevé la sécurité à plus long terme.
  2. Et si un serveur d’authentification du YubiCloud répond toujours OK même si les OTP sont invalides ? Quelle est la robustesse de l’infrastructure du YubiCloud ? La liaison entre les API côté clients et les serveurs API Validation Servers est chiffrée avec une clé partagée. Les serveurs KSM avec leurs YubiHSM sont indépendants des API Validation Servers. Mais si la clé AES semble bien protégée dans les YubiHSM, je n’ai pas vu de mécanisme de signature de la réponse.
  3. Yubico ne semble pas aimer la cryptographie symétrique, elle n’est employée nulle part. Dans un contexte entièrement centralisé autour de quelques serveurs, la cryptographie symétrique appliquée à tous les échanges reste cependant acceptable. Mais on en revient à une critique précédente, cela renforce l’unicité du point de défaillance de ces serveurs.

Qu’en penser ?
Toute la sécurité repose sur la/les clés AES des YubiHSM, la robustesse de la clé YubiKey et sur l’implémentation du chiffrement de l’OTP. La solution semble viable à court terme. Trop de défauts la condamne malheureusement à long terme.
Bref, c’est mieux que de se reposer uniquement sur le user/password, mais il faudra l’abandonner sans regrets au premier signe de faiblesse.

Liens :
http://www.yubico.com/
http://www.wired.com/wiredenterprise/2013/01/google-password/all/
http://www.yubico.com/products/yubikey-hardware/
– http://static.yubico.com/var/uploads/pdfs/YubiKey_manual-2.0.pdf
http://www.yubico.com/wp-content/uploads/2012/10/YubiCloud-OTP-Validation-Service-v1.1.pdf
http://www.schneier.com/blog/archives/2013/01/googles_authent.html
http://gonzague.me/yubico-yubikey#axzz2IzWaf5Dr
https://bitcointalk.org/index.php?topic=85648.msg943612#msg943612
http://openid.net/

Protocoles (a)symétriques

Samedi, janvier 19th, 2013

Un article sur le sentiment de stagnation de l’innovation (InternetActu.net) amène un commentaire (le premier) sur la symétrie de l’Internet et de ses protocoles.

Le commentaire relève l’asymétrie des acteurs, soit les fournisseurs de services et les clients/consommateurs. Il en découle logiquement des conflits d’intérêts. Le premier se trouve entre le client piégé et le fournisseur de service résolument fermé aux autres fournisseurs de services. Le deuxième conflit est révélé par l’actualité entre Free et Google, entre le transporteur de paquets et le nœud de services.
Cette asymétrie se retrouve dans les protocoles utilisés sur le réseau des réseaux.

La solution proposée serait de déployer des protocoles symétriques. Ceux-ci existent depuis des décennies mais sont peu employés. Ils permettraient de relier directement les gens entre eux sans les intermédiaires bien encombrants que sont les nœuds de services. Et accessoirement, cela assurerait la neutralité du réseau et relancerait l’innovation pris en otage par les grosses sociétés.

Mon avis, c’est que le problème est bien réel mais cette solution me semble un peu superficielle. La façon de la mettre en avant fait un peu… commercial d’ailleurs, même si aucun produit n’est proposé derrière. Bref, comme souvent, c’est une mauvaise solution à un problème mal posé.
Oui le système des brevets est utile, mais complètement détourné de son but originel. A revoir si l’on veut relancer rapidement l’innovation par les petites sociétés. Il devait assurer la diffusion du savoir et des innovations contre des garanties. Il est aujourd’hui la base d’une guérilla juridique pour protéger coûte que coûte des positions commerciales au détriment… de l’innovation.
Oui l’Internet est asymétrique, et on n’y changera pas grand chose tant que la connexion de l’utilisateur restera… asymétrique. J’ai vu que ce problème a été abordé quelque part dans un commentaire comme étant une cause de problème. L’ADSL qui connecte une grande partie des utilisateurs est volontairement asymétrique, mais cela correspond à une optimisation liée aux usages des internautes depuis 15 ans. Ce n’est pas une cause de dissymétrie mais une conséquence. Et donc aucun changement n’est à attendre de ce côté là tant que les usages de l’Internet ne changeront pas.
Non les protocoles asymétriques ne résoudront pas le problème d’asymétrie de l’Internet. Que le protocole soit symétrique ou pas n’a pas d’importance. Bien qu’utilisant des protocoles symétriques, nous savons déjà aujourd’hui parfaitement faire dialoguer deux utilisateurs directement entre eux, le fameux Pair à Pair (P2P). Ce qui à de l’importance c’est l’usage, encore et toujours. Tant que l’on ne proposera pas à Facebook et consorts des alternatives utilisant les propriétés du P2P et potentiellement complètement acentrés, ça ne changera pas.

La translation d’adresse IP (NAT) sera, si elle ne l’est déjà, un plus grand frein à la symétrie des usages de l’Internet. Tant que plusieurs utilisateurs seront cachés derrière une seule adresse IP, ils sera difficile de leur donner un rôle autre que celui de consommateur. Le NAT sert aussi à faire de la sécurité pour les postes cachés, ou plutôt devrait-on dire que ça y contribue un peu (pas plus). Rien que pour ça, IPv6 (sans NAT) devrait être une des plus grosses priorités.

Retour au projet nebule. Celui-ci permet de répondre à l’asymétrie des usages non pas en faisant tomber les nœuds de services ou en rendant le réseau complètement symétrique, mais en redonnant au réseau sa vraie place de transporteur. La symétrie est assurée (ou pas) par les liens entres objets, indépendamment du moyen de transport.

Liens :
http://www.internetactu.net/2013/01/09/vers-une-stagnation-de-linnovation/
http://www.internetactu.net/