
Cyber & Tech News - Prävention - Versicherung - Schulung - Geek-Kultur
Femme de la tech : Margaret Hamilton

Comment parler de Margaret Hamilton sans évoquer le programme Apollo. Mais Margaret c'est bien plus que ça.
En avance sur son temps, dans les années 60, élever un enfant, avoir en même temps un travail et de surcroit dans un poste à responsabilité dans le milieu scientifique font qu'elle était un OVNI.
Même si à l'époque l'informatique était balbutiant et peu reconnu, la responsabilité qui pesait sur ses épaules n'était pas des moindre surtout lorsqu'on sait qu'elle et son équipe ont écrit le programme de l'ordinateur embarqué notamment dans le module lunaire.
Margaret est née en 1936 dans l'Indiana, États-Unis. Après ses études secondaire, elle étudie les mathématiques à l'Université du Michigan en 1955, avant d'obtenir une licence de mathématiques au Earlham College en 1958.
Elle part vivre dans le Massachusetts avec l'intention de poursuivre des études de Mathématiques pures à l'Université Brandeis mais finalement choisit d'intégrer le MIT en 1960 pour développer des programmes informatiques de prévision météorologique sur des ordinateurs pour le professeur Edward Lorenz.
Entre 1960 et 1963 elle travaille sur le projet militaire d'ordinateur de AN/FSQ-7 qui est un système de commandement et de contrôle de la défense aérienne. Pour info chaque système pesait 250 tonnes... En 1963 elle rejoignit le laboratoire Draper du MIT.
A partir de là, Margaret va travailler sur les missions du programme Apollo de la NASA. En total décalage avec les code de l'époque, il lui arrive d'emmener sa fille avec elle au travail, elle raconte :
"Je me souviens, je prenais ma fille avec moi la nuit et le week-end. Une fois, elle s’est mise à jouer à l’astronaute et d’un coup le système de simulation a planté. J’ai réalisé qu’elle avait sélectionné PO1 - le programme d’atterrissage - pendant le vol. J’ai commencé à m'inquiéter et à penser à ce qui se passerait si les astronautes faisait ce qu’elle venait de faire. Je suis allée voir la direction pour leur dire qu’il fallait apporter des changement au programme. Ils ont dit : “Ça n’arrivera jamais, nos astronautes sont super entraînés, ils ne font pas d’erreurs ”. Lors de la mission suivante, Apollo 8, la même chose est arrivée. PO1 a été sélectionné en plein vol."
L'histoire retiendra que c'est la qualité des programmes qu'elle et son équipe ont développé qui a permis un alunissage qui aurait pu être autrement dramatique.
Le 21 juillet 1969 alors que le module est sur point d'alunir, trois minutes avant que le module lunaire Apollo atteigne la surface de la Lune, des alarmes informatiques répétées se déclenchent. Elles signalent que l'ordinateur est saturé. Par ailleurs, l'ordinateur de navigation ainsi que l’ordinateur de pilotage transmettent des ordres contradictoires.
MH: « Suite à une erreur dans le manuel décrivant la checklist, le bouton d'arrêt du radar de rendez-vous a été placé dans la mauvaise position. Ce qui a provoqué l'envoi de mauvais signaux à l'ordinateur. Il était ainsi demandé à l'ordinateur de réaliser toutes les tâches liées à l'atterrissage tout en recevant une charge supplémentaire qui utilisait plus de 15 % du temps de traitement. (...) l'ordinateur était programmé pour faire mieux que simplement identifier une situation d'erreur. Des programmes de récupération avaient été incorporés dans le logiciel qui permettaient d'éliminer les tâches ayant les priorités plus faibles et d’exécuter les plus importantes. Si l'ordinateur n'avait pas reconnu le problème et entrepris ces actions de récupérations, je doute qu'Apollo 11 aurait réussi son atterrissage sur la Lune comme il l'a fait. »
Sans système de priorisation des tâches dans le logiciel du module lunaire qu'elle a conçu avec son équipe, le 21 juillet 1969 aurait été une date tragique.
Après la fin du programme Apollo Margaret Hamilton confonde une entreprise informatique avec une autre programmeuse américaine Syadean Zelin qui était cheffe de l'équipe en charge de la conception du logiciel de contrôle des moteurs du module de commande d'Apollo.
En 1986 elle crée et dirige sa propre société Hamilton Technologies et développe un environnement d'ingénierie des systèmes et de développement logiciel entièrement intégré. Margaret Hamilton a reçu de nombreux prix et distinctions, en 2017 Barack Obama lui a remis la Médaille présidentielle de la liberté qui est la plus haute distinction aux Etats Unis.
Les travaux qu'elle a mené avec ses équipes ont contribué à définir des standards et les bonnes pratiques de ce que l'on a appelé après le software engineering. Ses travaux ont permis de façonner la manière dont les logiciels sont conçus développés et maintenus aujourd'hui.
Replaçant les choses dans leur contexte, elle n'était pas la seule femme a travailler dans l'informatique et la programmation, une matière nouvelle, sans grand interêt à l'époque mais qui pourtant être une des clé du succès de la conquête de la lune et pour ramener les astronautes sur terre.
Dans une interview accordée à la NASA, Margaret Hamilton se remémorait les balbutiements de sa profession, au cœur du MIT : "De mon point de vue, l’expérience logicielle elle-même était au moins aussi excitante que les événements qui entouraient notre mission… Il n’y avait pas de seconde chance. Nous le savions. Nous prenions notre travail très au sérieux, beaucoup d’entre nous commençant cette aventure à à peine 20 ans. Trouver des solutions et de nouvelles idées était une aventure. [...] Parce que le logiciel était un mystère, une boîte noire, la direction avait une foi et une confiance totales en nous. Nous devions trouver un chemin, et nous l’avons fait. Quand je regarde en arrière, nous étions les personnes les plus chanceuses au monde : nous n’avions pas d’autre choix que d’être des pionniers."
Margaret Hamilton fait partie des personnages de Lego créés pour rendre hommage aux femmes de la Nasa (à l'initiative de Maia Weinstock).
- Anmelden oder Registrieren, um Kommentare verfassen zu können
Assurance : l'IA au menu des roadshow

Constat : de plus en plus l'IA s'invite lors des roadshow cyber. D'abord timidement depuis 2 ans et aujourd’hui de manière plus régulière.
Quand le sujet n'est pas abordé par l'assuré, il y a des chances qu'un assureur pose une question. Alors comment évaluer le risque lié à l'IA et à son arrivée dans l'entreprise ?
Derrière ce besoin, il y a plusieurs questions, beaucoup même.
Car en effet, vous savez qu'il y a plusieurs IA, plusieurs déploiements possibles, des besoins et des usages divers en fonction des entreprises... les risques liés à l'IA dans l'entreprise sont aussi variés que les activités des assurés.
Dans cet article dont vous lisez ici la première partie, nous abordons les usages et les risques qui y sont liés. Nous verrons aussi qu’il existe déjà un cadre posé par l’Union Européenne et que le connaitre ne serait-ce que dans les grandes lignes permet déjà de poser quelques bonnes questions pour appréhender le risque.
Au final de quels risques parle-t-on ? Et est-ce vraiment un sujet cyber ? Plus il émerge plus il semble relever de la RC.
Par exemple, un industriel qui implémente une infrastructure d'IA avec un objectif d'automatiser une partie du contrôle de ses processus n'aura pas la même exposition au risque qu'un cabinet d'avocat qui se dote d’une IA générative et l'entraine sur tous les dossiers traités depuis 30 ans.
De même, une IA dans un secteur qui évolue rapidement avec un fort potentiel de croissance ne pourra pas être déployée de la même manière que dans un secteur mature et stable. Rien que cette différence influence les choix technologiques (dont nous parlerons dans la seconde partie à venir de cet article).
Et donc, bien appréhender les risques de l'IA et pas nécessairement que des risques cyber réclame de bien définir et comprendre son cadre d’usage pour recueillir les informations utiles à son évaluation.
En premier lieu, il convient de se demander pourquoi l'assuré veut mettre en place une IA, au-delà du fait d'améliorer sa performance : Quel est son projet, pour quoi faire ?
Quelques exemples d'utilisation dans l'industrie :
- Optimiser des tâches, des choix, gérer des entrepôts, la logistique, des prévisions de production, aider à prendre des décisions
⁃ Prévoir des pannes et réaliser la maintenance préventive de manière optimale
⁃ Surveiller la performance de l'outil industriel, l'optimiser avec des jumeaux numériques (répliques virtuelles de chaines de production, machines, usines).
⁃ Améliorer la qualité de production en temps réel
⁃ Innover, stimuler la R&D
Autres exemples d'utilisation et de finalités dans le tertiaire :
⁃ Service client, automatisation de la gestion des demandes courantes (chatbots, suivis, petits dépannages)
⁃ Rationaliser la charge de travail, anticiper les demandes
⁃ Gain de temps de recherche et d'analyse, aide à la décision
⁃ Suivi historique de l'activité et de la production intellectuelle
⁃ Réduction de l'administratif
⁃ Automatisation du benchmarking
⁃ Analyse fine des tendances, utilisation de modèles prédictifs, ciblage
⁃ Exploitation de données de tiers, ciblage
Le premier point est donc de bien comprendre quelle(s) sont les utilisation(s) que l'assuré veut faire de l'IA. Car les IA mises en œuvre dépendent de ces choix, tout comme les scenarii de risque qui en découlent.
Il convient également de couvrir tout le spectre possible des utilisations que l'entreprise compte faire, comme par exemple dans les RH, secteur prometteur pour l’IA, où les risques ne sont pas des moindre, par exemple :
Les RH collectent et traitent de nombreuses données personnelles, l'arrivée de l'IA expose les entreprises à des risques importants en matière de confidentialité et de sécurité des données. Ces déjà le cas pour de nombreux service RH ou autres cabinets de recrutement direz-vous, ces risques sont déjà existants.
Oui mais, avec l'IA ces données vont voir leur surface d'exposition augmenter, d'autant plus qu'elles risquent de servir à l'entrainement de modèles d'IA, d'une part sans nécessairement le consentement des personnes concernées et d'autre part avec des informations que les RH ne sont pas censées conserver... au regard du RGPD.
Autre risque, lié au modèle. Si vous demandez 2 fois la même chose à une IA vous avez de fortes chances d'obtenir des réponses différentes (pas forcément contradictoires mais proches). Imaginons que ce modèle serve à évaluer, sélectionner des candidats, évaluer la performance de collaborateurs ou encore proposer un niveau de rémunération, une prime, une évolution de carrière...
Au-delà les biais intrinsèques, en cas de défaillance, de manque de cohérence, qui sera "responsable d'expliquer le modèle". Est-ce l'algorithme, les données d'entraînement, l’interprétation ?
Si l'entreprise n'arrive plus à recruter les profils voulus, que les talents partent, que la pyramide des âges dans l'entreprise est cassée... qui est responsable ? Poussons l’exercice de pensée… ce n’est pas ma faute, c’est celle de l’IA, je ne fais que suivre ses recommandations et ses aides à la décision, nous n’avons plus de chargé(e) de recrutement depuis sa mise en place.
L'IA pose en fait plus de questions de autour des responsabilités de que de défis cyber. Nous aborderons les infrastructures et leur risque dans une suite à cet article.
En tout état de cause, les avantages, manifestes sur le papier, s'accompagnement de challenges en termes de responsabilité et d'éthique.
L'entreprise reste responsable de l'employabilité des collaborateurs et à ce titre elle doit investir dans la formation et la reconversion. L'impact sur l'emploi doit être abordé car il représente un réel enjeu que les assureurs ne peuvent ignorer.
Un cadre règlementaire à parfaire
Les risques liés à l'IA sont encadrés par la réglementation européenne sur l’IA (AI Act) depuis mars 2024. Elle établit des normes strictes pour l’utilisation de l’IA dans les environnements critiques, clarifie les responsabilités en cas de défaillance.
Elle définit 4 catégories de risques : Les compagnies doivent poser la question aux assurés pour savoir dans quelle catégorie leur (projet) IA se situe.
• Les risques inacceptables sont interdits (par exemple, les systèmes de notation sociale et l'IA manipulatrice).
• Les systèmes d'IA à haut risque sont réglementés.
• Les systèmes d'IA à risque limité sont soumis à des obligations de transparence plus légères : les développeurs et les déployeurs doivent s'assurer que les déployeurs finaux sont conscients qu'ils interagissent avec l'IA (chatbots et deepfakes).
• Le risque minimal n'est pas réglementé (y compris la majorité des applications d'IA actuellement disponibles sur le marché unique de l'UE, telles que les jeux vidéo et les filtres anti-spam activés par l'IA - au moins en 2021 ; cette situation est en train de changer avec l'IA générative).
En résumé pour bien aborder le risque lié à l'IA chez un assuré qui déploie ou qui envisage le déploiement d'une IA, il convient en premier :
• D'identifier les "tâches" attendues et le type d'IA utilisé (pourquoi faire)
• De s’interroger si une défaillance de l'IA serait de nature à mettre en danger la santé et la sécurité des personnes ou des biens. Comment ce point a été évalué et par qui ?
• Demander à l'assuré s'il a déjà procédé à un audit pour savoir si son système/projet d'IA est soumis à une ou plusieurs obligations de la loi européenne sur l'IA. Si oui, dans quel catégorie de risque se situe le système d'IA et quelles sont les obligations ?
• Où se trouve le système et où sont/seront utilisées les données ?
Les articles du règlement européen sur l'IA qui constituent un point d'attention pour comprendre l'usage que les assurés veulent faire de leur système d’IA : 25, 2, 5, 3, 6 et 50.
Même si l’arrivée de l’IA est plus rapide qu’initialement prévu par les institutions, le contexte actuel, les enjeux de souveraineté et de protection des données font que le sujet est pris au sérieux par les autorités en Europe.
Une jurisprudence récente liée à l'IA et à la protection des données personnelles concerne la société CLEARVIEW AI condamnée en 2022 par la CNIL à une amende de 20M€.
Cette entreprise américaine spécialisée dans la reconnaissance faciale avait collecté des images des millions de personnes sur internet sans leur consentement pour entrainer ses algorithmes d'IA. La CNIL a qualifié cet acte de violation grave de la RGPD et demandé la suppression des données. L'entreprise ne s'est pas conformée à la décision de la CNIL et a été condamnée à nouveau en 2023 à une astreinte de 5,2 M€.
Le régulateur Britannique a également condamné CLEARVIEW AI sur des fondements proches de ceux de la CNIL
Espérant que cette première partie vous aura apporté un éclairage intéressant, nous aborderons les infrastructures d'IA dans une suite à cet article.
Pour finir cette introduction, voici quelques définition des termes liés à l'IA dans le Règlement Européen
• Fournisseur : personne physique ou morale, autorité publique, agence ou autre organisme qui développe un système d'IA ou un modèle d'IA à usage général (ou qui fait développer un système d'IA ou un modèle d'IA à usage général) et les met sur le marché ou met le système en service sous son propre nom ou sa propre marque, que ce soit à titre onéreux ou gratuit ;
• Déployeur : toute personne physique ou morale, autorité publique, agence ou autre organisme utilisant un système d'IA sous son autorité, sauf si le système d'IA est utilisé dans le cadre d'une activité personnelle non professionnelle ;
• Distributeur : toute personne physique ou morale de la chaîne d'approvisionnement, autre que le fournisseur ou l'importateur, qui met un système d'IA à disposition sur le marché de l'Union ;
• Importateur : toute personne physique ou morale située ou établie dans l'Union qui met sur le marché un système d'IA portant le nom ou la marque d'une personne physique ou morale établie en dehors de l'Union ;
• Représentant autorisé : toute personne physique ou morale située ou établie dans l'Union qui a reçu et accepté un mandat écrit d'un fournisseur de système d'IA ou de modèle d'IA à usage général pour, respectivement, exécuter et mener à bien en son nom les obligations et procédures établies par le présent règlement.
• Fabricant de produits : met sur le marché ou met en service un système d'IA avec son produit et sous son propre nom ou sa propre marque ;
Lien très intéressant sur l’EU Artificial Intelligence Act et qui a servi aussi de source à cet article.
- Anmelden oder Registrieren, um Kommentare verfassen zu können
Du bug de l’an 2000 à celui de 2038 : une nouvelle bombe à retardement pour les systèmes Unix ?

Vous souvenez-vous qu'à l’approche de l’an 2000, un vent de panique s’était emparé du monde ? L’origine du problème ? Une décision de conception informatique anodine, prise plusieurs décennies plus tôt. La plupart des systèmes informatiques en usage depuis les années 1960 utilisaient deux chiffres pour représenter l’année (ex. : "99" pour 1999). Ainsi, le passage à "00" pouvait être interprété comme 1900 et provoquer des erreurs en cascade.
Les scénarios allaient bon train : Pannes de réseaux électriques, effondrement bancaire, avions cloués au sol, dysfonctionnement des centrales nucléaires. Gouvernements, entreprises et particuliers se préparaient au pire, investissant des milliards pour prévenir une catastrophe qui, au final, n’a pas eu lieu.
Dès les années 1970, certains experts avaient vu le problème venir. Mais avec l’essor des ordinateurs dans les années 1980 et l'arrivé de l'internet public au milieu des années 1990, la majorité des logiciels et systèmes d’exploitation continuaient d’utiliser ce format de date. La crainte était que les algorithmes exécutant des calculs basés sur la date (intérêts bancaires, gestion de stocks, maintenance automatique, etc.) se comportent de manière erratique après minuit, le 31 décembre 1999. Il faut dire qu'à l'époque où certains programme avaient écrits, personne dans les années 70 pensaient qu'ils seraient toujours utilisés 30 ans plus tard.
Une mobilisation massive et un succès
Les gouvernements et entreprises ont pris la menace au sérieux. Dès le milieu des années 1990, d’importants plans de correction ont été déployés : mise à jour des logiciels, tests rigoureux et migration des systèmes critiques. Aux États-Unis, par exemple, plus de 100 milliards de Dollars avaient été investis pour assurer la compatibilité des infrastructures.
Le 31 décembre 1999, de nombreux centres de contrôle étaient en alerte maximale. Des ingénieurs surveillaient les systèmes informatiques, prêts à réagir au moindre dysfonctionnement. Mais lorsque minuit a sonné, les conséquences furent largement bénignes.
Certains incidents ont bien eu lieu mais rien de grave : des erreurs dans l’affichage des dates sur des logiciels obsolètes, des distributeurs de billets hors service, ou encore des systèmes de gestion de patients hospitalisés affichant des âges erronés. Mais aucun effondrement systémique ne s’est produit.
Le succès des mesures correctives a donné l’impression que le "bug de l’an 2000" était une fausse alerte et une occasion de se faire de l'argent pour des petits malins qui avaient montés pleins de SS2I pour traiter le problème. Pourtant, il a démontré l’importance de la gestion proactive des risques informatiques et a marqué un tournant dans la prise de conscience autour de la cybersécurité et de la gouvernance des infrastructures numériques.
Le bug de l’an 2000 n’a pas été un non-événement, mais plutôt la démonstration de l’efficacité d’anticiper un risque en amont. Aujourd’hui, avec des enjeux similaires comme le passage à l'année 2038 pour les systèmes Unix ou les failles critiques de cybersécurité, cette expérience nous rappelle que l’anticipation et la résilience sont essentielles dans un monde de plus en plus dépendant de la technologie.
Le prochain défi : le bug de l’an 2038
Si le bug de l’an 2000 a été évité grâce à des mesures préventives, un autre problème similaire menace les systèmes Unix et Linux : le bug de l’an 2038. Vous ne le connaissez pas ? Ce problème provient du format de stockage du temps utilisé par ces systèmes : le timestamp Unix, qui représente le nombre de secondes écoulées depuis le 1er janvier 1970 (Epoch time).
Sur les systèmes utilisant des entiers signés sur 32 bits pour enregistrer les dates en secondes, la valeur maximale atteindra 2 147 483 647 secondes le 19 janvier 2038 à 03:14:07 UTC. À cette date, les compteurs de temps repasseront à une valeur négative, ce qui pourrait provoquer des erreurs similaires à celles redoutées pour l’an 2000, telles que des pannes de systèmes critiques, des erreurs de calcul de date et des dysfonctionnements généralisés.
Explications du bug de codage d'une date sur 32 bits :
19/01/2038 : 03:14:07 -> 2147483647 -> 011111111111111111111111111111111
Or 011111111111111111111111111111111 + 1 = 100000000000000000000000000000000
Et 100000000000000000000000000000000 -> -2147483648 -> 13/12/1901 : 20:45:52
Les infrastructures les plus vulnérables sont celles qui utilisent encore des systèmes embarqués anciens, des bases de données horodatées et certains logiciels financiers qui s’appuient sur des timestamps Unix. Bien que de nombreux systèmes modernes utilisent désormais des entiers sur 64 bits, garantissant une compatibilité bien au-delà de 2038, certaines architectures critiques n’ont pas encore été mises à jour.
Les grandes entreprises technologiques et les gouvernements ont d’ores et déjà commencé à migrer leurs systèmes pour faire aussi bien qu'en 2000, mais la tâche à accomplir, en particulier dans les secteurs de l’aviation, de l’énergie et bancaires.
Alors, panique exagérée ou véritable risque ? Le débat reste ouvert, mais une chose est sûre : sans prise de conscience massive et anticipation, les conséquences pourraient être graves.
Pour terminer, la page Wiki dédiée au problème et aussi quelques ressources liens pour vous documenter sur le sujet
Sur Reddit pour visualiser l'erreur produite à travers une animation
Sur stackoverflow, comment résoudre le bug
Pas de panique, le bug de 2038 se passera aussi bien voire mieux que celui de l'an 2000.
Ce qu'il faut retenir de tout ça c'est la pertinence et la longévité de systèmes développés dans les années 70 par des concepteurs de génie.
- Anmelden oder Registrieren, um Kommentare verfassen zu können
Tags
L’informatique quantique, quelles conséquences pour la cybersécurité ?

L’informatique quantique est depuis plusieurs années considérée comme l’une des technologies les plus prometteuses du 21ᵉ siècle.
Longtemps restée au stade de la recherche fondamentale, au tournant des années 2020, elle a commencé à franchir un cap décisif vers une application concrète.
Récemment, Microsoft a annoncé une percée significative avec la création de Majorana 1, le premier processeur quantique au monde reposant sur une architecture topologique. Cette innovation pourrait bouleverser le domaine en accélérant le développement d’ordinateurs quantiques véritablement fonctionnels et commercialement viables.
Contrairement aux ordinateurs classiques, qui utilisent des bits pouvant prendre la valeur de 0 ou 1, les ordinateurs quantiques reposent sur des qubits (bits quantiques) capables d’exister dans plusieurs états simultanément grâce au phénomène de superposition. Cela leur confère un potentiel de calcul exponentiel, notamment pour des problèmes complexes comme l’optimisation, la simulation moléculaire ou encore l’intelligence artificielle avancée.
L’élément clé de la percée de Microsoft est le topoconducteur, un matériau qui permet d’observer et de manipuler les particules de Majorana, éléments fondamentaux pour la création de qubits plus stables et moins sensibles aux erreurs. L’un des défis majeurs de l’informatique quantique réside en effet dans la fragilité des qubits, qui sont extrêmement sensibles aux interférences extérieures. En développant une architecture plus robuste, Microsoft espère résoudre ce problème et atteindre un ordinateur quantique évolutif d’un million de qubits, seuil considéré comme nécessaire pour des applications à grande échelle.
Cette avancée positionne Microsoft comme un acteur clé dans la course au quantique, aux côtés d’autres géants comme Google, IBM et Intel. Google a d'ailleurs récemment dévoilé Willow, sa puce quantique dotée d’une architecture améliorée permettant de réduire le taux d’erreur, tandis qu’IBM continue d’étendre sa feuille de route avec des processeurs de plus en plus puissants. Cependant, la promesse d’une approche topologique pourrait donner à Microsoft un avantage stratégique décisif.
Quels sont les enjeux pour la cybersécurité : un monde à repenser
Si ces avancées sont porteuses d’espoir pour la science et l’industrie, elles posent aussi un défi majeur en matière de cybersécurité. Aujourd’hui, la sécurité des communications et des données repose sur des algorithmes de chiffrement sophistiqués, conçus pour être pratiquement indéchiffrables par des ordinateurs classiques. Parmi eux, on trouve des standards tels que RSA (Rivest-Shamir-Adleman), le chiffrement à courbes elliptiques (ECC) et AES (Advanced Encryption Standard).
Le problème ? Un ordinateur quantique suffisamment puissant pourrait briser ces algorithmes en un temps record grâce à des algorithmes spécifiques comme l’algorithme de Shor. Cet algorithme a démontré en 1994 qu’un ordinateur quantique pouvait factoriser rapidement de grands nombres premiers, ce qui compromettrait directement la sécurité des clés cryptographiques utilisées aujourd’hui.
En d’autres termes, lorsque l'informatique quantique atteindra un niveau de puissance et de stabilité suffisant, un ordinateur quantique pourra :
• Déchiffrer des données actuellement protégées par RSA en quelques heures ou minutes.
• Briser les signatures numériques utilisées pour vérifier l’authenticité des documents électroniques.
• Compromettre les protocoles de chiffrement utilisés dans les transactions bancaires, les communications militaires et les infrastructures critiques.
Ce futur ne peut qu'inquiéter les gouvernements et les grandes entreprises, qui stockent aujourd’hui d’énormes volumes de données sensibles. Certains acteurs malveillants pourraient même adopter une stratégie de “Harvest Now, Decrypt Later”, c’est-à-dire intercepter et stocker des données chiffrées aujourd’hui, dans l’attente de pouvoir les déchiffrer avec un futur ordinateur quantique.
Conclusion : Anticiper et se préparer à l’ère quantique dès maintenant
L’annonce de Microsoft marque une avancée à ne pas minorer. Si cette technologie ouvre des perspectives immenses dans des domaines comme la médecine, la chimie ou l’intelligence artificielle, elle représente aussi un défi inédit pour la sécurité des données et des communications. D'une manière générale, elle peut menacer nos échanges.
Les entreprises, les institutions financières et les gouvernements doivent dès maintenant se concerter et se préparer ensemble en développement des standards de sécurité et des protocoles de chiffrement adaptés à l'avènement de l'informatique quantique et en renforçant leurs infrastructures de sécurité.
Cette transition ne se fera pas du jour au lendemain, mais il est essentiel d’anticiper pour éviter une vulnérabilité massive le jour où les ordinateurs quantiques atteindront la maturité nécessaire pour casser nos protections actuelles.
L’informatique quantique n’est plus un simple concept théorique. Elle se rapproche à grands pas, et avec elle, la nécessaire transformation de notre manière de protéger nos échanges et nos données. La question n’est plus “si” mais “quand”. Les entreprises et institutions doivent s’adapter à cette révolution et c'est aujourd'hui qu'il faut y penser.
- Anmelden oder Registrieren, um Kommentare verfassen zu können
A l'heure du choix, la difficile comparaison des IA

Avec l'essor des IA et la prolifération des modèles se pose pour les entreprises, à l’heure de faire un choix, la délicate question de la comparaison et de la pertinence des outils utilisés. En effet, nous sommes passés en quelques mois de 2, 3 IA que tout le monde pouvait citer à une déferlante de modèles et de déclinaisons, si bien qu'il est difficile de s'y retrouver. Le paysage de l'IA semble se muer en une jungle de plus en plus dense.
Par exemple, prenons par ordre alphabétique qu'Amazon, nous trouvons comme IA, Amazon Nova Canvas, Amazon Nova Lite, Amazon Nova Micro, Amazon Nova Premier, Amazon Nova Pro. Nous retrouvons les mêmes déclinaisons chez les Google, Open AI, DeepSeek, Meta, Mistra, Microsoft, xAi, etc.
Comment s'y retrouver, qui fait quoi et quels sont points à considérer ?
Bien sûr il faut d'abord savoir ce que l'on recherche comme IA et pour quoi faire (texte, image, vidéo, musique, analyses, recherche) avant d'examiner les principaux critères. Commençons d'abord par identifier les critères simples qui permettent de les distinguer avant de parler des benchmarks.
La taille de l'IA déterminerait "le degré d'intelligence". Attention cependant, la taille n'est pas à rapprocher de la qualité. Les IA les plus connues se sont lancées dans une compétition de "taille" en absorbant de plus en plus de données et de paramètres. La contrepartie c'est que les IA consomment beaucoup d'énergie et l'on s'est rendu compte qu'il n'y a pas que la taille qui compte.
Depuis quelques mois, un revirement s’opère et avoir la plus grosse n’est plus de mise. Microsoft et Apple ont d'ailleurs annoncé en 2024 se focaliser sur des modèles plus petits (Small Language Model). Pour les entreprises, une IA spécialisée n'a pas besoin d'avoir des milliards de paramètres. Le mouvement va dans le sens d'une réduction de la taille des IA allant de pair avec l'optimisation des modèles et une spécialisation en fonction des contextes d'utilisation. Cette inclinaison n'est pas due au hasard. Elle souligne le coût élevé des LLM (coût également écologique) et le besoin de trouver des débouchés y compris pour les PME. La taille n'est donc pas un gage de qualité et de pertinence.
L'éthique ensuite, car c’est réel enjeu qui doit être pris en compte dès la conception du modèle. Pourquoi ? Parce que les IA automatisent des prises de décision, poursuivant ainsi une tendance profonde des sociétés modernes, à savoir la dépersonnalisation des décisions par des processus bureaucratiques. Mais alors que les processus bureaucratiques sont censés être définis par des règles transparentes et exécutés par des humains, plusieurs IA se distinguent par leur opacité. Les IA peuvent causer des dommages, générer du contenu/prendre des décisions contraires aux valeurs humaines et être détournées pour une utilisation malveillante.
Il est donc important de vérifier leur degré d'éthique. Cela est possible, tout comme un entrainement spécifique, la vérification de sources ou la maîtrise de biais qui peuvent par exemple amplifier des préjugés existants, ou fournir des réponses injustes. Des sociétés proposent ce service et il est recommandé, tant pour les interactions internes qu’externes.
Le coût est un paramètre non négligeable lorsque l'entreprise veut s'équiper d'une IA. Il dépend du nombre de paramètres et de la taille du modèle. Généralement, plus ils sont élevés plus le coût d'utilisation de l'IA le sera aussi. Le déploiement d'une IA est un projet qui peut contenir de nombreux coûts cachés. Il est important de bien se faire accompagner pour identifier tous les éléments du coût de déploiement d'une IA.
- D'abord, le type d'IA souhaitée (automatisation simple ou IA avancée) et pourquoi faire (textes, image, vidéo, analyses...).
- Est-ce que mon entreprise peut se contenter d'une IA clé en main (en mode SaaS) ou d'une IA sur mesure que je vais entrainer partiellement ou intégralement avec des données de l'entreprise.
- Ensuite, quel type d'infrastructure est la plus adaptée à mon besoin ? Hébergement dans le cloud (public, hybride, privé), en interne sur les serveurs ?
- A ces coûts, il ne faut oublier d'ajouter les frais liés au maintien en condition de l'IA (maintenance, mises à jour) à la formation des utilisateurs et pour certains modèles aux prix des licences et autres abonnements. Le budget pour la mise en place d'une IA et son exploitation est un projet à ne pas négliger pour éviter les déconvenues.
Les benchmarks, vers une standardisation ?
D'abord un peu d'histoire. Bien qu'à l'origine le benchmark soit un outil marketing (créé par Xerox) son application au domaine informatique était toute naturelle pour se positionner par rapport à un groupe de référence, plus prosaïquement pour comparer une solution à une autre, un matériel, un système à un autre.
Logiquement, le benchmarking de solutions techniques s'applique désormais à l'IA, du moins commence à s'y appliquer et suit son essor.
Néanmoins, dans des domaines plus mûrs, les outils de benchmark sont clairement identifiés et utilisés. Certains benchmarks sont spécialisés et dédiés à un type d’activité ou encore un domaine d’utilisation. Par exemple, le jeu vidéo qui requiert des ressources combinées de plusieurs composants matériels à ses outils de benchmark, la référence étant l'outil 3DMark qui ne va pas analyser seulement la performance du processeur ou de la carte graphique mais globalement celle des 2 en même temps pendant l’activité.
Concernant l'IA, pendant longtemps, le seul benchmark c'était l'homme et le plus connu a été Garry Kasparov, le maître des échecs…
Il n'existe a pas aujourd'hui de benchmark qui permet d'évaluer l'ensemble des performances de manière exhaustive et globale (j’y inclus l’éthique). Pour évaluer les performances d'une IA de manière objective, il faut s'appuyer sur plusieurs outils. Le souci avec les benchmarks dans l'IA c’est qu'aujourd'hui pour connaitre la performance réelle d'un modèle, on peut s'appuyer surtout sur les benchmarks de chaque éditeur... autant dire que c'est relatif.
Cependant, il en existe quelques-uns. Ci-après 3 exemples de benchmarks utilisés pour mesurer les IA :
- Le benchmark MMLU (Massive Multitask Language Understanding) couvre 57 domaines distincts comme la médecine, l'histoire, le droit. Ce benchmark permet de mesurer la profondeur et la largeur des connaissances du modèle. Référentiel créé en 2020 et issu de la recherche universitaire. MMLU contient environ 16 000 questions à choix multiples portant sur 57 matières académiques
- Le benchmark MATH comme son nom l'indique va évaluer l'IA sur des problèmes mathématiques complexes. Pas forcément utile si vous prévoyez de déployer une IA sur le droit.
- Enfin, le benchmark MMMU (2023) pour Massive MultiModal Understanding est un référenciel 11 500 questions niveau universitaire dans différentes disciplines et qui a pour objectif d'évaluer la "perception" et le raisonnement du modèle (on parle de compétences multimodales). Ce benchmark repose sur des supports tels que des graphiques, schémas et images.
Même si comme vu ci-dessus, des benchmarks existent, ils sont certes récents et souvent le fruit de recherches universitaires. C'est un bon début mais il reste du chemin pour convaincre les industriels de, primo, standardiser ces benchmarks, deuxio partager un ou plusieurs bancs d'essais communs pour évaluer leurs IA à l'instar de ce qui se fait dans l'informatique classique et tertio de les adopter sur le long terme pour les faire évoluer de pair avec les IA.
- Anmelden oder Registrieren, um Kommentare verfassen zu können
Google et le retour du Fingerprinting : une alternative controversée aux cookies

Il y a quelques jours, je surfais sur le web comme d’habitude, quand un énième pop-up m’a demandé si j’acceptais les cookies. Marre de cliquer sur « Tout refuser » à chaque visite, j’ai décidé de chercher un moyen d’automatiser ce refus. C’est en creusant le sujet que je suis tombé sur un papier de Google publié en décembre 2024 qui annonçait une évolution majeure de sa politique publicitaire.
Depuis le 16 février 2025, le géant du web ne se contente plus des cookies pour suivre les internautes. À la place, il mise sur une méthode plus discrète et bien plus difficile à contourner : le fingerprinting numérique. Cette technique permet d’identifier un utilisateur sans qu’il s’en rende compte, en analysant des caractéristiques uniques de son appareil et de son comportement de navigation.
Google présente cette transition comme une avancée en matière de confidentialité, intégrant des technologies censées protéger nos données tout en maintenant un ciblage publicitaire efficace. Mais en réalité, ce changement soulève de nombreuses questions : le fingerprinting est-il vraiment une alternative respectueuse de notre vie privée ? Ne risque-t-on pas, au contraire, de perdre encore plus de contrôle sur nos données ?
Décryptons ensemble cette annonce, ses implications et les controverses qu’elle soulève.
Mais qu’est-ce que le fingerprinting et pourquoi Google l’adopte-t-il ?
Le fingerprinting est une technique qui consiste à collecter diverses informations techniques sur un terminal, telles que la taille de l’écran, le navigateur utilisé, la langue ou encore l’adresse IP. En combinant ces données, il est possible de créer une empreinte numérique unique pour chaque utilisateur, permettant ainsi de le suivre à la trace à travers différents sites web et applications, sans recourir aux cookies traditionnels.
Contrairement aux cookies, le fingerprinting est pratiquement indétectable par l’utilisateur et difficile à bloquer. Google justifie son adoption par la nécessité de s’adapter à un écosystème publicitaire en évolution, notamment avec l’essor de la télévision connectée (CTV). L’entreprise affirme que les technologies améliorant la confidentialité, telles que les Privacy-Enhancing Technologies (PETs), permettent d’atténuer les risques associés au fingerprinting, en traitant les données localement sur les appareils des utilisateurs. Ainsi, selon Google, il serait possible de concilier efficacité publicitaire et respect de la vie privée.
Les PETs sont des technologies conçues pour protéger la confidentialité des utilisateurs en minimisant l’utilisation des données personnelles et en augmentant la sécurité des informations.
Elles permettent de collecter, traiter, analyser et partager des données tout en préservant la vie privée des individus. Google soutient que l’intégration du fingerprinting, combinée aux PETs, permettra d’équilibrer le besoin de ciblage publicitaire avec le respect de la confidentialité des utilisateurs.
Un choix controversé : réactions et critiques
La décision de Google a rapidement suscité des critiques de la part de diverses organisations et régulateurs. L’Information Commissioner’s Office (ICO) du Royaume-Uni, l'équivalent de notre CNIL a qualifié ce changement de politique d’« irresponsable », soulignant que le fingerprinting réduit le choix et le contrôle des individus sur la collecte de leurs informations. L’ICO rappelle que, contrairement aux cookies, le fingerprinting est difficile à détecter et à bloquer, ce qui compromet la transparence et le consentement éclairé des utilisateurs.
De plus, cette décision semble en contradiction avec les positions antérieures de Google. En 2019, l’entreprise avait déclaré que le fingerprinting « subvertit le choix des utilisateurs » et ne répondait pas à leurs attentes en matière de confidentialité. Ce retournement soulève des questions sur les priorités de Google en matière de protection des données et sur l'équilibre délicat entre innovation publicitaire et respect des droits des utilisateurs.
Les empreintes numériques n’incluent peut-être pas de données personnelles identifiables, mais la pratique est dénoncée pour son caractère invasif et sournoise. Les internautes n’ont aucun moyen de savoir s’ils sont suivis de cette manière, il n’y a pas de consentement explicite, ni de possibilité de refuser ou d’effacer les données collectées, comme c’est le cas avec les cookies tiers. Plusieurs organisations soulignent que le fingerprinting ne respecte pas le Règlement Général sur la Protection des Données (RGPD) européen.
Les mécanismes de gestion ou de blocage des cookies ne permettent pas de s’opposer à cette technique. Pour se protéger du fingerprinting, les utilisateurs doivent recourir à des méthodes peu accessibles, telles que des extensions qui modifient aléatoirement les paramètres transmis par le navigateur. Cette complexité rend difficile pour les internautes de contrôler leur propre confidentialité en ligne.
Face à ces critiques, Google met en avant des garde-fous, notamment les PETs, pour atténuer les risques liés au fingerprinting. Cependant, certains experts estiment que l’entreprise est restée vague sur l’utilisation concrète de ces technologies. De plus, il n’est pas clair si les annonceurs devront modifier leurs pratiques de collecte de données pour se conformer aux nouvelles directives.
Les régulateurs, comme l’ICO, ont averti qu’ils pourraient intervenir si Google ne respectait pas les exigences légales en matière de protection des données, notamment la nécessité d’obtenir un consentement libre et éclairé des utilisateurs. Ils rappellent que les lois sur la protection des données continuent de s’appliquer, même avec l’introduction de nouvelles technologies de suivi.
Avec l’abandon des cookies tiers, Google promet une publicité plus respectueuse de la vie privée, mais le fingerprinting soulève de nouvelles inquiétudes. Invisible et difficile à bloquer, il réduit encore la liberté des internautes.
Ce virage stratégique illustre un dilemme majeur du numérique : protéger la vie privée tout en maintenant un écosystème publicitaire efficace, nécessaire à la survie des GAFAM. Face aux critiques des régulateurs, Google devra prouver que ses promesses de confidentialité ne sont pas qu’un écran de fumée.
- Anmelden oder Registrieren, um Kommentare verfassen zu können
Femme de la Tech : Ada Lovelace

Ada Lovelace (1815-1852) est souvent présentée comme la première programmeuse de l’histoire, une figure visionnaire ayant perçu le potentiel des ordinateurs bien avant leur existence. Son travail sur la machine analytique de Charles Babbage et son
fameux programme pour les nombres de Bernoulli lui valent aujourd’hui une place centrale dans l’histoire de l’informatique.
Mais cette vision est-elle fidèle à la réalité ?
Fille du célèbre poète Lord Byron et d’Annabella Milbanke, férue de mathématiques, Ada Lovelace grandit dans un univers où la rigueur scientifique était un contrepoids à l’imaginaire littéraire. Elle développe un goût prononcé pour les mathématiques et les sciences, sous la direction de Mary Somerville et Auguste De Morgan. Sans pour autant avoir eu de parcours universitaire en mathématique, son esprit analytique et sa curiosité l’amènent à s’intéresser aux travaux de Charles Babbage.
C’est en traduisant un article du mathématicien Luigi Federico Menabrea sur la machine analytique que Lovelace laisse son empreinte. Ses notes, bien plus volumineuses que l’article original, détaillent non seulement le fonctionnement de la machine mais théorisent aussi sa capacité à manipuler autre chose que des nombres. C’est là que réside son génie : nourrie par la logique mathématique de sa mère et la sensibilité imaginative de son père, elle ne se limite pas à voir une machine à calculer, mais entrevoit un outil universel, où abstraction et créativité se rejoignent.
Mais quelle est l’ampleur réelle de sa contribution ? Il est indéniable qu’Ada Lovelace a rédigé un programme informatique avant l’heure, mais elle ne l’a pas conçu seule. Son travail repose en grande partie sur les discussions avec Babbage et sur les concepts qu’il avait déjà établis. Babbage lui-même était conscient des implications théoriques de sa machine, et certaines de ses notes montrent qu’il avait envisagé des algorithmes bien avant la publication de Lovelace.
De plus, son programme pour les nombres de Bernoulli n’a jamais été testé sur une machine fonctionnelle, la machine analytique étant restée à l’état de prototype. On pourrait donc se demander si la reconnaissance dont elle bénéficie aujourd’hui ne relève pas d’une lecture moderne et biaisée de l’histoire, portée par le désir légitime de mettre en lumière les contributions féminines en science.
Malgré ces nuances, Ada Lovelace demeure une figure clé. Son intuition sur le potentiel des machines à traiter autre chose que du calcul brut annonce, d’une certaine manière, l’avènement de l’intelligence artificielle et de la programmation informatique.
Qu’elle ait été la première programmeuse de l’histoire ou une médiatrice brillante des idées de Babbage, son rôle dans la construction de la pensée informatique reste fondamental.
Si elle est aujourd’hui une icône, c’est aussi parce qu’elle incarne la reconnaissance tardive mais nécessaire du rôle des femmes dans la science et la technologie. La vérité historique importe, mais elle ne doit pas éclipser l’importance symbolique de son héritage. Peut-être n’a-t-elle pas été la seule architecte du premier programme informatique, mais elle fut sans aucun doute la première à comprendre qu’un ordinateur pouvait être bien plus qu’une simple machine à calculer.
Ada Lovelace n’est donc pas qu’une légende embellie : elle est un symbole de l’intuition et de l’imagination appliquées à la science, une qualité aussi essentielle aujourd’hui qu’au XIXe siècle.
- Anmelden oder Registrieren, um Kommentare verfassen zu können
DeepSeek : La Guerre Technologique Sino-Américaine

DeepSeek, entreprise chinoise fondée en décembre 2023 par Liang Wenfeng, s’inscrit dans un contexte politique et économique particulièrement mouvementé, où plusieurs événements majeurs ont contribué à redéfinir la course à l’intelligence artificielle. L’investiture de Trump, accompagnée d’un discours axé sur l’investissement massif dans l’IA, a marqué une volonté affichée de renforcer la compétitivité technologique américaine.
Peu après, le lancement de DeepSeek et la chute en bourse de Nvidia alors leader incontesté dans la fabrication de puces IA, ont révélé la vulnérabilité de l’hégémonie technologique des États-Unis. Celle-ci s'expliquerait par la réussite de l'entreprise chinoise à se passer des puces H100, qui étaient jusque-là utilisées par les acteurs majeurs du marché de l'intelligence artificielle.
Une rencontre privée entre le président Trump et le PDG de Nvidia, Jensen Huang (qu’elle soit une réaction à ces événements ou planifiée à l’avance), a ainsi mis en lumière la complexité de la situation: d’un côté, un gouvernement américain déterminé à protéger ses intérêts et à maintenir sa suprématie, de l’autre, une Chine qui, par l’innovation et le partage de techniques jusque-là confidentielles, montre sa capacité à innover constamment afin de se montrer concurrentiel. Mais aussi une entreprise privée qui ne souhaite pas se priver d'un marché...
Liang Wenfeng, 40 ans, originaire du Guangdong et diplômé de l’université de Zhejiang en ingénierie de l’information électronique et en informatique qui est perçu comme « plus un geek que patron » par ceux qui le connaissent. Sa discrétion habituelle contraste avec l’importance stratégique de ses récentes apparitions, notamment lorsqu’il fut le seul dirigeant de l’IA invité à un rendez-vous public avec Li Qiang, le deuxième dirigeant le plus puissant du pays. Fort de son expérience dans la finance, notamment en tant que PDG du fonds spéculatif High-Flyer, il a su utiliser les revenus générés par le trading quantitatif pour attirer et rémunérer les meilleurs talents locaux issus des universités de Pékin, Tsinghua et Beihang.
Son ambition est claire : faire de DeepSeek un pionnier dans le développement d’une intelligence artificielle de niveau humain, c'est à dire capable d’opérer avec une efficacité et une transparence inédite. En effet, le modèle R1 de DeepSeek ne propose pas une révolution technologique, mais se distingue plutôt par la divulgation de techniques avancées telles que l’optimisation du Key-Value cache qui sert à garder en mémoire les informations des mots précédents dans une séquence pour éviter de les recalculer à chaque nouveau mot, accélérant ainsi la génération du texte, qui étaient jusque-là le secret industriel des géants américains. En partageant ces avancées avec la communauté scientifique, DeepSeek ouvre la voie à une démocratisation de l’innovation en IA, permettant à des chercheurs, des startups et des laboratoires d’expérimenter et d’améliorer des méthodes auparavant réservées aux entreprises disposant de budgets faramineux. Cette transparence n'es peut être pas dénuée d'arrières pensées géopolitiques.
Cependant, à peine quelques jours après l’annonce de son lancement, des experts en cybersécurité (Américains) ont mis en lumière de graves vulnérabilités chez DeepSeek. Ces lacunes ont été soulevées par une étude menée par des chercheurs de CISCO, l’entreprise spécialisée dans les équipements réseau, qui ont soumis DeepSeek R1 à des tests de résistance en utilisant des invites malveillantes. Les résultats sont inquiétants : le modèle n’a pas réussi à bloquer la moindre attaque, affichant un taux de réussite de 100 % pour ces intrusions.
Cette absence de protection, couplée à des erreurs de filtrage, a rapidement déclenché des alarmes, non seulement en raison de la facilité les chercheurs ont pu contourner les barrières de sécurité de DeepSeek mais aussi du fait de la collecte massive de données sensibles sur cette IA. Dans un contexte où la transparence et la sécurité sont primordiales, ces vulnérabilités compromettent sérieusement la confiance dans l'intelligence artificielle développée par DeepSeek.
Pour couronner le tout, DeepSeek se retrouve rapidement confronté à la réaction immédiate des États-Unis. Pour reprendre l’ascendant, Google a mis à jour son IA Gemini vers la version 2.0 Flash, tandis qu’OpenAI a lancé son nouveau modèle o3-mini, accessible gratuitement, ainsi que la fonctionnalité Deep Research. Cette dernière, capable d’analyser en profondeur le Web pour générer des rapports documentés, illustre l’urgence de repousser les limites technologiques face à une concurrence de plus en plus féroce. Les améliorations annoncées par OpenAI, notamment en termes de sécurité, de rapidité et de réduction des erreurs, témoignent d’un effort concerté pour répondre aux défis posés par l’émergence d’acteurs innovants et concurrents comme DeepSeek.
Au final, le véritable combat se joue au cœur de la souveraineté technologique. Alors que les États-Unis tentent de maintenir leur suprématie en imposant des restrictions à l’exportation de technologies sensibles, la Chine transforme ces contraintes en catalyseur d’innovation, accélérant ainsi son indépendance technologique. Ce duel, qui dépasse la simple confrontation entre modèles d’IA génératives, illustre une lutte plus large entre des visions du monde où la maîtrise technologique est un levier stratégique essentiel et celle où l’innovation est le fruit d’un partage ouvert des connaissances.
L'Europe aujourd'hui absente du jeu aura t-elle la capacité de réagir dans le temps pour ne pas se faire dépasser comme cela a été le cas face aux moteurs de recherche il y a 25 ans ?
- Anmelden oder Registrieren, um Kommentare verfassen zu können
Assurance cyber, bientôt une nouvelle crise ?

Fin novembre 2019 l’ANSSI et l’AMRAE publiaient un guide sur la maitrise du risque numérique pour les dirigeants d'entreprise. Un guide en 15 étapes pour "accompagner" les dirigeants des organisations publiques et privées de toutes tailles dans la construction d’une politique de gestion du risque numérique.
L'ironie du sort a voulu que ce guide, bien que pertinent, soit arrivé avec deux ans de retard sur la réalité de la menace. Pendant ce temps, les ransomwares progressaient inexorablement, prenant de court un monde des affaires mal préparé, mais qui pensait le contraire. En 2019 le risque perçu comme majeur était celui de la conformité règlementaire.
Il faut reconnaitre que personne n'était prêt. L'AMRAE déclarait en 2019 que l'assurance cyber était un outil intéressant mais difficile à manipuler. Il faut rappeler qu'à cette époque les polices étaient le plus souvent des traductions de textes anglo-saxons orientés RC pour des raisons historiques. L'histoire a montré depuis qu'un sinistre cyber est surtout un dommage au SI.
A cette époque l'AMRAE soulignait les difficultés des PME pour évaluer et apprécier les cyber-risques rappelant que dans les grandes entreprises la prise de conscience du cyber risque était établie. Seulement la prise de conscience ce n'est pas suffisant.
2020 a marqué une année de basculement pour l'assurance cyber et a montré que les grandes entreprises n’étaient pas prêtes à faire face d'une part, et d'autre part que le marché se fermait aux PME car les capacités des assureurs avaient été vidées, justement à cause des grands comptes, qui, mal préparés avaient subis des attaques dévastatrices.
C’est aussi cette situation qui va créer les conditions, à l'arrivée sur le marché des insurtech qui elles vont savoir s'adresser aux PME.
Entre 2020 et 2022, le monde a assisté à une explosion des sinistres cyber, touchant même les entreprises réputées "prêtes". La réaction du marché a été brutale, au point qu'en janvier 2022, le président de l'AMRAE lançait un cri d'alarme : "Le marché de la cyber-assurance n'existera peut-être plus l'an prochain".
Ce message provocateur a eu le mérite de secouer tous les acteurs du secteur, les poussant à l'introspection.
C'est ce qui a été fait mais peut-être pas assez encore car, la nature humaine est ainsi faite, dès que les choses vont mieux, les excès reviennent. Et c'est ce qui se passe en ce moment, à tel point que d'aucun souhaiterait quelques sinistres pour que le marché se régule, tellement la compétition est rude.
C'est qu'en 2 ans il s'en est passé des choses. L'assurance cyber n'a pas disparu, elle toujours là, les polices ont été revues, les acteurs sont montés en compétences et en nombre (Insurtech, nouveaux entrants).
C'est la loi du marché, oui ok. Mais, ce mouvement est tellement fort qu'il crée le terreau pour une réplique de 2020. Et elle a de bonnes chances de survenir tant qu'il s'accélère. Certains acteurs du marché qui ne veulent pas céder à une forme de dumping commencent à la souhaiter. Avec la baisse des primes, les plans bâtis il y a 2 ans ne sont pas atteint, il faut donc trouver nouveaux assurés et souscrire.
Inévitablement la qualité des risques diminue. En revanche, ce qui est à la hausse, c'est l'évolution des attaquants et l'utilisation de l'IA de manière offensive que ce soit pour le cyber, la fraude ou les deux combinés.
Un risque atypique :
Le risque cyber ne peut pas être appréhendé comme les autres risques qui sont assez stables, essentiellement avec une composante de sécurité.
Il reste un dernier point à intégrer si ce n'est pas déjà fait : Le risque cyber a la particularité d'être fortement évolutif et il constitue avant tout un problème de sureté.
La sécurité se concentre sur la réduction des risques, tandis que la sûreté vise à prévenir intentionnellement les menaces.
La stratégie pour y parvenir est différente. Comprendre, sentir et anticiper l'état de la menace, et pas seulement celle du marché doit être une constante. C'est sans doute là que la maturité réside au moment de souscrire.
Ne reproduisons pas les erreurs du passé.
- Anmelden oder Registrieren, um Kommentare verfassen zu können
Diviser l’atome des emails : une menace insidieuse pour la cybersécurité

L’email, un pilier de nos communications numériques, est souvent perçu comme une technologie simple et bien comprise. Pourtant, derrière son apparente simplicité se cache une architecture complexe, régie par des standards qui, bien que pratiques, peuvent être exploités à des fins malveillantes.
Récemment, une recherche menée par l'éditeur de la suite Burp, PortSwigger, intitulée “Splitting the email atom", révèle comment des techniques de manipulation des adresses email peuvent contourner les systèmes de sécurité les plus avancés. Ces attaques, bien que discrètes, représentent un risque majeur pour les entreprises et les personnes.
Qu'est-ce l’atomisation des adresses email ?
Pour comprendre l'atomisation, il faut plonger dans les entrailles de la structure des adresses email. Selon le standard RFC 5322, une adresse email est formée de deux parties principales :
• La partie locale (avant le @), qui peut inclure des points, des guillemets, des caractères spéciaux ou des sous-adresses (ex. : prenom.nom+projet@domaine.com).
• Le domaine (après le @), qui identifie le serveur de messagerie (ex. : domaine.com).
Les attaquants exploitent cette flexibilité syntaxique pour manipuler la manière dont les adresses email sont interprétées par différents systèmes. Voici les techniques utilisées :
1. La variation de la partie locale
Certains fournisseurs de messagerie, comme Gmail, traitent prenom.nom@gmail.com et prenomnom@gmail.com comme la même adresse, alors que d’autres systèmes les interprètent comme différentes. Cela permet aux attaquants :
• De contourner les filtres anti-spam : En envoyant des emails avec des variations de la partie locale, ils évitent ainsi d’être détectés.
• D’usurper une identité : Ils peuvent se faire passer pour un expéditeur légitime en exploitant ces variations.
2. L’utilisation des sous-adresses
Avec le symbole “+” (exemple : prenom.nom+arnaque@domaine.com), il est possible de créer des variations infinies d’une même adresse. Ces sous-adresses peuvent être utilisées :
• Pour contourner les restrictions d’unicité sur les formulaires en ligne.
• Pour piéger les systèmes qui valident uniquement la syntaxe de l’email, mais pas son authenticité.
3. Des collisions inter-systèmes
Certains systèmes traitent les adresses email différemment. Par exemple, un service peut considérer prenom.nom@domaine.com comme valide, tandis qu’un autre va le rejeter. Cela ouvre la porte à des attaques exploitant ces incohérences pour :
• Contourner des mécanismes d’authentification comme SPF, DKIM ou DMARC.
• Créer des conflits d’identité : Une adresse peut être enregistrée avec plusieurs variations sur différentes plateformes, permettant des détournements de compte.
4. La manipulation des domaines
Les attaquants peuvent également jouer sur des domaines ressemblants (ex. : d0maine.com au lieu de domaine.com) pour passer sous le radar des systèmes de détection. Combinée aux techniques ci-dessus, cette approche amplifie leur efficacité.
Quels sont les risques ?
Les techniques d’atomisation des emails ne sont pas de simples curiosités pour chercheurs : elles représentent une menace réelle. Voici les principaux risques associés :
• Vol d’identité : Les variations d’adresses peuvent être utilisées pour usurper l’identité d’un utilisateur ou contourner des vérifications d’authenticité.
• Phishing ciblé : Les filtres anti-spam peuvent être contournés, permettant aux attaquants d’envoyer des emails frauduleux qui paraissent légitimes.
• Détournement de comptes : En exploitant les incohérences entre systèmes, un attaquant peut accéder à des comptes sans déclencher d’alerte.
• Violation des données : Des campagnes de phishing sophistiquées peuvent compromettre des informations sensibles, tant pour les individus que pour les entreprises.
Comment se protéger ?
Face à ces menaces, il est essentiel de renforcer nos pratiques de cybersécurité, tant au niveau individuel que pour les entreprises. Voici quelques mesures clés :
Pour les utilisateurs
1️⃣ Vérifiez toujours l’expéditeur : Même si l’adresse semble familière, examinez-la attentivement pour détecter des variations subtiles.
2️⃣ Méfiez-vous des sous-adresses : Si un email contient un “+” ou des caractères inhabituels, soyez particulièrement vigilant.
3️⃣ Activez l’authentification multi-facteurs (MFA) : Cela réduit les risques en cas de compromission d’un compte.
Pour les entreprises
1️⃣ Renforcez les systèmes de validation : Assurez-vous que vos filtres anti-phishing et anti-spam peuvent détecter les variations d’email.
2️⃣ Testez vos systèmes : Simulez des attaques utilisant ces techniques pour identifier les éventuelles failles.
3️⃣ Adoptez des standards robustes : Implémentez des mécanismes comme le DMARC et surveillez les incohérences entre systèmes.
4️⃣ Sensibilisez vos équipes : La formation des collaborateurs est essentielle pour les aider à identifier et reporter les emails suspects.
Un appel à la vigilance
Le papier de recherche de PortSwigger montre que même les technologies les plus éprouvées peuvent receler des vulnérabilités insoupçonnées. Si ces techniques sont complexes, leur utilisation par des attaquants est simple et redoutable.
Le défi de la cybersécurité n’est pas seulement technique : c’est une question de prise de conscience. En comprenant les risques associés à l’atomisation des emails, nous pouvons mieux nous protéger et anticiper les menaces de demain.
Et vous, quelles actions mettez-vous en place pour sécuriser vos emails ? Partagez vos bonnes pratiques ou vos réflexions en commentaires !
#Cybersécurité #EmailSecurity #Phishing #SécuritéNumérique #PortSwigger
- Anmelden oder Registrieren, um Kommentare verfassen zu können
US Cyber Trust Mark : le label qui protège vos objets connectés

Récemment j’ai installé des caméras de surveillance chez moi, mais une question m’a traversé l’esprit : Est-ce que des acteurs malveillants pourraient s’y connecter et m’espionner ? Avec l’explosion des objets connectés dans notre quotidien, cette inquiétude n’est pas anodine. Qu’il s’agisse des montres intelligentes, d’enceintes connectées ou de thermostats, tous ces appareils peuvent devenir des cibles de cyberattaques. Face à ce risque croissant, Les Etats Unis ont lancé un label de cybersécurité, l’US Cyber Trust Mark, destiné à rassurer les utilisateurs et à garantir que leurs équipements répondent à des normes de sécurité définies. Ce nouveau programme marque un tournant dans la lutte pour protéger notre vie privée et renforcer la confiance dans les technologies connectées.
Pourquoi ce label est-il nécessaire aujourd’hui ?
La prolifération des objets connectés, allant des caméras de surveillance aux appareils électroménagers intelligents, a ouvert la voie à une explosion des cyberattaques. Ces appareils souvent mal sécurisés, peuvent devenir des points d’entrée pour les pirates informatiques, exposant potentiellement des données personnelles des utilisateurs, leur vie privée et en compromettant la sécurité des réseaux. L’absence de normes claires en matière de sécurité a laissé un vide que l’US Cyber Trust Mark doit combler. Ce label vise à offrir une garantie aux consommateurs et un cadre de référence aux entreprises, dans un contexte où la confiance numérique est plus importante que jamais.
Qu’est-ce que l’US Cyber Trust Mark ?
L’US Cyber Trust Mark est un programme de labellisation volontaire mis en place par la Federal Communications Commission (FCC) des États-Unis. Il vise à certifier que les appareils connectés respectent des normes de cybersécurité rigoureuses, offrant ainsi aux consommateurs une indication claire de la sécurité des produits qu’ils achètent. Ce label, similaire au Nutri-Score utilisé pour évaluer la qualité nutritionnelle des aliments, permet aux consommateurs de reconnaître facilement les appareils qui répondent à des critères de sécurité spécifiques.
Quels sont les critères du label ?
Les équipements connectés souhaitant obtenir le label US Cyber Trust Mark doivent satisfaire à plusieurs exigences définies par la FCC. Parmi ces critères figurent l’utilisation de protocoles de chiffrement avancés pour protéger les données, la capacité à recevoir et installer des mises à jour logicielles régulières pour combler les vulnérabilités, et des mécanismes robustes de gestion des identités et des accès pour assurer que seuls les utilisateurs autorisés peuvent interagir avec l’appareil. De plus, une transparence accrue concernant la collecte et l’utilisation des données personnelles est requise, garantissant ainsi que les informations des utilisateurs sont traitées de manière responsable.
Quels sont les avantages ?
Pour les consommateurs, ce label simplifie le processus de sélection des produits en fournissant une assurance quant à la sécurité des appareils connectés. Cela réduit les risques associés à l’utilisation de dispositifs vulnérables, protège les données personnelles et contribue à fournir une "expérience utilisateur" plus sûre et plus fiable. En fin de compte, l’US Cyber Trust Mark vise à instaurer une confiance accrue dans l’écosystème des objets connectés, bénéfique tant pour les fabricants que pour les utilisateurs finaux.
Un équivalent en Europe ?
En Europe, l’US Cyber Trust Mark n'a pas d’équivalent aujourd'hui mais des initiatives voient cependant le jour. L’Union européenne travaille sur des normes harmonisées pour la cybersécurité des appareils connectés, notamment via le Cyber Resilience Act. Ce cadre législatif vise à imposer des exigences de sécurité aux fabricants et pourrait aboutir à l’adoption d’un label européen comparable. De plus, des organisations telles que Cyber Trust Europe développent des labels de qualité pour la cybersécurité, offrant aux entreprises la possibilité de démontrer leur conformité aux normes européennes et de renforcer la confiance des consommateurs dans leurs produits.
En lançant l’US Cyber Trust Mark, les États-Unis posent les bases d’un écosystème numérique plus sûr, où les utilisateurs peuvent choisir des appareils connectés en toute confiance. Ils posent aussi en premier un standard. Ce label, qui encourage des normes de cybersécurité élevées, pourrait inspirer des initiatives similaires à travers le monde, notamment en Europe. Alors que nos vies deviennent de plus en plus connectées, ce type de démarche est essentielle pour protéger nos données et garantir un usage des technologies en toute sérénité.
Sources :
https://www.fcc.gov/CyberTrustMark
https://digital-strategy.ec.europa.eu/en/policies/cyber-resilience-act
- Anmelden oder Registrieren, um Kommentare verfassen zu können
3 technologies qui réinventent la Silicon Valley

La Silicon Valley a une histoire riche qui remonte à l'époque où elle était connue sous le nom de "Vallée des Délices du Cœur". Dans les années 50, elle était couverte d'abricotiers, de pêchers et de cerisiers, ainsi que de champs de fraises. L'activité principale de la région était alors la conserverie de fruits, compotes, gelées et confitures.
Cependant la technologie de pointe était déjà présente. En 1887, construction de l'observatoire de Lick, puis en 1891 l'Université de Stanford est fondée. Tout de suite l'électronique devient un sujet avec en 1909 la création de la Federal Telegraph Corporation à Palo Alto.
En 1939 : Hewlett-Packard est créée à Palo Alto dans un garage qui deviendra le symbole de l'origine de la Silicon Valley. Pendant la guerre, la Silicon Valley devient un centre de transmission et de recherche électronique (incluant l'université de Stanford).
En 1951 le parc industriel de Stanford, favorisant les partenariats entre Stanford et les entreprises technologiques est créé. Deux ans plus tard, la société Varian Associates, pionnier de la technologie des micro-ondes et des semi-conducteurs est fondée. Puis en 1956 c'est l'ouverture du Shockley Semiconductor Laboratory, qui conduit à la création de semi-conducteurs à base de silicium.
Vers le milieu des années 1960, l'expansion urbaine s'est amorcée. Les vergers ont été délaissés pour faire place nette à de nouvelles entreprises et à des logements. La dernière grande conserverie a fermé ses portes en 1967.
Vers 1965, l'ère des semi-conducteurs est en plein boom. Cette région au sud de San Francisco est devenue un centre technologique, dirigé par des pionniers Fairchild Semiconductor International commercialise le premier circuit intégré, Intel est créé en 1968.
Les semi-conducteurs sont devenus le cœur de toute innovation technologique dans les années 60 mais le grand public n'a pas perçu leur impact réel avant la naissance de l'ordinateur personnel. La période des années 70 va être le terreau qui va faire naitre l'informatique moderne 10 ans plus tard. Le premier micro-ordinateur, peut être l'Altair 8800 d'Ed Roberts en 1974, mais ce n'est que 2 ans plus tard Steve Jobs et Steve Wozniak créés l'Apple 1 que l'ère du PC débutera vraiment.
L'impact plus large du PC au niveau mondial engendrant une réinvention de la Silicon Valley viendra de la décision d'IBM d'utiliser le processeur 8088/8086 d'Intel dans son premier PC en 1981 (comme dans l'Altair). Lorsque cette machine est devenue un succès mondial la Silicon Valley jusqu'alors connue des geeks de l'époque est apparue sur le devant de scène. L'avénement du PC IBM a engendré toute une industrie, tant sur le plan matériel, de logiciels que sur la distribution et les services. L'ère du PC était née.
Aujourd'hui, le PC reste important mais la demande a atteint son apogée au milieu des années 2000.
La Silicon Valley a commencé une nouvelle mue au milieu des années 90 lorsque Netscape a introduit son navigateur web en 1994. En 1997, le boom d'Internet a fait émerger une nouvelle industrie au cœur de la Silicon Valley avec toutes sortes de nouvelles applications, services et produits.
Puis, le visage de la Silicon Valley s'est à nouveau transformé avec l'arrivée des smartphones et en particulier en 2007 avec l'Iphone. Les ingénieurs en semi-conducteurs, les programmeurs de logiciels et les développeurs d'applications ont commencé à affluer dans la vallée. De nouvelles entreprises comme Uber et Lyft ont drainé des "sous-industries" autour du smartphone. Cette fois, les ventes de produits se mesuraient en milliards : selon Statista, les abonnements de smartphones dans le monde en 2022 étaient de 6,4 milliards, et devraient atteindre 7,7 milliards d'ici 2028.
1951, 1965, 1980, 1994, 2007, tous les 10 à 20 ans la Silicon Valley se réinvente. Des entreprises que l'on croyait éternelles disparaissent pour faire la place de nouveaux "champions"
Nous nous trouvons actuellement dans une nouvelle période de transition. Après des mois embauches importantes pendant le COVID, les entreprises de la Silicon Valley ont massivement licencié depuis 2 ans pour protéger leurs profits.
Cependant, trois technologies émergentes sont sur le point de donner une nouvelle impulsion à la Silicon Valley pour les 15 à 20 prochaines années : l'IA, l'informatique spatiale et l'informatique quantique.
L'IA devrait devenir l'une des technologies les plus importantes à stimuler l'informatique au cours des 25 prochaines années. Les processeurs à l'origine de la révolution de l'IA deviendront exponentiellement plus puissants. D'ores et déjà, nous observons des investissement massifs en R&D sur la conceptions de semi-conducteurs et les feuilles de route visant à alimenter les applications, solutions et services d'IA que nous ne pouvons même pas imaginer aujourd'hui.
La deuxième technologie qui devrait stimuler la croissance de la Silicon Valley est la virtualisation et le développement de la 3D pour le grand public. Pendant de nombreuses années, la 3D a été utilisée dans des applications spécialisées telles que le dessin assisté par ordinateur. Cependant, pour la plupart d'entre nous, notre monde informatique est en 2D. Le passage à la 3D sera mené par Apple et autres GAFAM qui préparent le terrain pour les films, les jeux, les sports, les divertissements et les concerts en 3D, ainsi que pour d'autres nouvelles applications qui n'ont pas encore été inventées. L'industrie devrait aussi être concernée avec la virtualisation des assets pour la maintenance, la formation, la généralisation de l'impression 3D...
Le troisième domaine à surveiller et l'informatique quantique. Bien qu'il en est encore a ses début, l'informatique quantique n'est pas un serpent de mer et elle aura un impact considérable sur notre monde. On s'attend à ce que cette technologie modifie considérablement l'IA et l'apprentissage automatique, ce qui se traduira par des avantages tels que des suggestions d'achat hyperpersonnalisées et des outils domestiques intelligents avancés. Elle changera aussi radicalement les soins de santé lorsqu'elle sera utilisée pour découvrir de nouveaux médicaments plus rapidement, pour trouver des remèdes potentiels et pour trouver de nouveaux moyens de vivre mieux plus longtemps.
Les ordinateurs quantiques devraient également profiter à des secteurs tels que l'investissement, la gestion de la chaîne d'approvisionnement, le divertissement et la robotique.
Toutefois, ils pourraient également menacer la vie privée et la cybersécurité si des défenses adéquates ne sont pas mises en place d'ici à ce que les machines quantiques commencent réellement à être déployées.
Si l'on combine ces trois nouvelles technologies (IA, 3D, informatique quantique), ont peu avoir les prochains ingrédients du cocktail gagnant de la Silicon Valley.
Toujours est-il que cette région est en ébullition autour de ses sujets et qu'elle est de nouveau entrain de se réinventer comme elle a su le faire depuis plus de 80 ans.
- Anmelden oder Registrieren, um Kommentare verfassen zu können
Gestion de l’énergie plutôt que du temps : une nouvelle révolution portée par la Silicon Valley

Dans l’effervescence de la Silicon Valley, l’innovation ne se limite pas aux avancées technologiques : elle concerne également la façon dont nous travaillons et gérons nos ressources. Traditionnellement, l'entreprise encourage à optimiser la gestion du temps pour accroître notre efficacité. Mais comme le souligne l’idée phare de Tim Bajarin (chroniqueur technologique américain et un consultant en technologie) et d’autres experts, un basculement s’opère aujourd’hui vers une approche centrée sur la gestion de l’énergie. Plutôt que de remplir frénétiquement nos agendas, il s’agirait de mettre l’accent sur ce qui stimule véritablement notre créativité.
Au cœur du problème : l’obsession pour le temps
Nous connaissons tous des situations où nos journées s’étirent de 6 h à 18 h sans véritable pause, enchaînant réunions et tâches administratives. Dans ce contexte, le réflexe naturel consiste à chercher de nouvelles méthodes pour "mieux gérer" notre temps. Mais cette recherche peut devenir un piège : on tente de caser toujours plus d’activités dans un nombre d’heures limité, nourrissant une culture du « hustle » (la course effrénée) qui s’accompagne de stress et à terme mène à l’épuisement.
Or, la gestion du temps au cordeau n’est pas la recette qui règle tout. Elle peut, paradoxalement, contribuer à aggraver la pression sociale et professionnelle, en nous incitant à maximiser chaque minute plutôt qu’à réfléchir à la qualité du temps passé.
L’alternative : placer l’énergie au centre
Selon cette nouvelle approche, le véritable critère d’efficacité est moins le temps alloué que l’énergie investie ou dépensée. Une tâche qui vous passionne peut, en quatre heures, vous dynamiser et vous laisser plein d’entrain pour le reste de la journée. À l’inverse, une autre, vécue comme pénible, peut vous drainer de toute votre énergie en à peine une heures.
Au lieu de juger une journée productive au nombre de points de la to-do list rayés, il s’agit de se demander lesquelles de ces activités nous font sentir plus "vivant, créatif et enthousiaste". C’est un changement de paradigme majeur dans la manière de concevoir le travail au quotidien.
Russ Hudson et l’énergie « piégée »
Russ Hudson, enseignant de l’Ennéagramme (outil de classement des personnalités), souligne le rôle nocif des émotions négatives (comme la frustration) dans la perte d’énergie. Ces émotions provoquent un afflux d’adrénaline et nous "accrochent" à un cycle de stress : au lieu de libérer notre potentiel, elles siphonnent notre vitalité.
Hudson va plus loin en expliquant que la frustration agit comme une addiction parce qu’elle donne la fausse impression de l’urgence et de l’adrénaline. Or, cette agitation permanente garde l’esprit dans un état de tension qui empêche de consacrer notre « force vitale » à des projets plus créatifs ou porteurs de sens.
Au-delà de l’épuisement : l’impact sociétal
Dans la Silicon Valley, la recherche de performance est omniprésente. Paradoxalement, c’est aussi un lieu où germent de nouvelles idées sur le bien-être au travail et la productivité durable. En prônant la gestion de l’énergie plutôt que celle du temps, on remet en question la "hustle culture" souvent associée à la Californie.
Cette évolution pourrait avoir un impact considérable sur les entreprises et sur les individus. Plutôt que de créer des systèmes sophistiqués pour remplir chaque minute de la journée, certains innovateurs proposent de mieux cerner nos sources de motivation et de satisfaction.
Cette démarche s’inscrit dans une tendance plus large où le bien-être et la santé mentale sont des enjeux de premier plan, notamment après la généralisation du télétravail et le désir de concilier vie personnelle et vie professionnelle.
Les trois piliers de la gestion de l’énergie
Prendre conscience (Awareness) : Il s’agit de repérer les différentes qualités d’énergie. Certaines activités créent une énergie positive, expansive, tandis que d’autres génèrent une tension nerveuse et épuisante.
Faire preuve de discernement (Discernment) : Classer les tâches selon leur impact sur votre énergie permet de favoriser celles qui vous dynamisent et de limiter (ou déléguer) celles qui vous drainent. Chacun a ses préférences : ce qui est un casse-tête pour l’un peut être source de plaisir pour l’autre.
Effectuer des choix et assumer des sacrifices (Choices and sacrifices) : Nous ne pouvons pas tout faire. Gérer son énergie implique aussi de dire « non » à certaines demandes pour préserver son bien-être et rester performant sur ce qui compte vraiment.
S’ancrer dans l’instant : la technique du « presencing »
Lorsque des émotions négatives surgissent, Russ Hudson propose une pratique appelée « presencing » :
Observer l’émotion (frustration, colère, etc.) sans la refouler.
Identifier clairement ce qui est ressenti.
Respirer dans l’émotion, pour la laisser passer plutôt que l’alimenter.
Cette méthode nous ramène dans le présent, brise le cycle de la frustration et libère l’énergie nécessaire pour avancer. C’est une approche simple, qui peut néanmoins transformer notre rapport aux difficultés du quotidien.
Vers une redéfinition de la réussite professionnelle
Dans un monde de plus en plus compétitif, la Silicon Valley continue d’innover non seulement dans les technologies, mais aussi dans les méthodes de travail et de management. Le passage d’une logique de gestion du temps à une logique de gestion de l’énergie pourrait bien représenter une nouvelle révolution silencieuse.
Ce changement de perspective offre un antidote au burn-out et à la course à la performance : il nous invite à privilégier la qualité de ce que nous faisons plutôt que la quantité, et à identifier les activités qui nourrissent notre créativité. Si la productivité reste un enjeu majeur, la manière de l’envisager se transforme. En adoptant ces principes, chacun peut aspirer à un modèle de travail plus équilibré, plus humain, et finalement plus durable.
Gardons tout de même à l'esprit que cette gestion de l'énergie n'est pas une martingale pour résoudre le stress au travail, certaine professions, pénibles de surcroit, ne pourront pas en bénéficier.
- Anmelden oder Registrieren, um Kommentare verfassen zu können
Tags
Xerox : Le Visionnaire Oublié de la Silicon Valley

À l’évocation de la Silicon Valley, des noms comme Hewlett-Packard, Apple ou Google viennent immédiatement à l’esprit. Pourtant, l’une des pièces maîtresses de l’histoire de l’informatique personnelle, le Xerox Alto, reste moins connue du grand public. Cet ordinateur révolutionnaire, développé au sein du Xerox Palo Alto Research Center (PARC) au début des années 1970, a jeté les bases de nombreux principes matériels et logiciels encore employés aujourd’hui. Son influence sur la Silicon Valley et sur des figures emblématiques comme Steve Jobs est incontestable.
La naissance du Xerox Alto au cœur de la vallée
En 1970, Xerox décide d’implanter un laboratoire de recherche avancé à Palo Alto, en Californie, au cœur d’une région encore en pleine transformation : la Silicon Valley. Nommé Xerox PARC (Palo Alto Research Center), ce centre réunit des ingénieurs, des informaticiens et des chercheurs visionnaires. Leur mission : imaginer l’ordinateur du futur.
En 1973, le Xerox Alto voit le jour dans les locaux de PARC. Bien avant l’Apple Lisa (1983) ou le Macintosh (1984), l’Alto intègre des innovations qui deviendront des standards des décennies plus tard :
• Interface Graphique : L’Alto est l’un des tout premiers ordinateurs à proposer une interface utilisateur graphique (GUI), avec des fenêtres, des icônes et un curseur manipulé via une souris.
• Modèle Client-Serveur et Réseau Éthernet : Les chercheurs du PARC développent l’Ethernet, permettant aux Altos de communiquer entre eux. Cet environnement favorise la collaboration et préfigure l’informatique en réseau.
• WYSIWYG et Édition de Documents : L’Alto propose le concept de “What You See Is What You Get” (WYSIWYG), permettant à l’utilisateur de visualiser à l’écran la mise en page exacte de ce qui sera imprimé. Des outils tels que le logiciel Bravo, un des premiers éditeurs de texte WYSIWYG, placent l’utilisateur au cœur de l’expérience informatique.
Une vision trop avancée pour Xerox
Ironiquement, Xerox, alors géant mondial de la photocopie, tarde à saisir le potentiel commercial de ces innovations. L’entreprise peine à imaginer un marché pour ce type d’ordinateur individuel, doté de capacités graphiques avancées. L’Alto reste ainsi principalement un prototype utilisé en interne, un laboratoire d’idées plutôt qu’un produit destiné au grand public.
Cette sous-exploitation par Xerox illustre l’une des caractéristiques récurrentes de la Silicon Valley : les inventions visionnaires ne proviennent pas toujours des entreprises qui parviendront à les commercialiser. Les idées circulent, se diffusent et sont parfois réinventées ailleurs, par d’autres acteurs qui réussiront à les transformer en succès commerciaux.
La rencontre avec Steve Jobs et l’échange avec Apple
La légende veut qu’en décembre 1979, Steve Jobs, cofondateur d’Apple, se rende au Xerox PARC pour une démonstration des technologies développées autour de l’Alto. À cette époque, Apple est déjà un acteur majeur de la scène naissante de la micro-informatique grâce à l’Apple II, mais Jobs sait que l’avenir se jouera dans l’interface et l’expérience utilisateur.
L’accord passé entre Apple et Xerox est révélateur de l’esprit de la Silicon Valley, où partenariats et transferts de technologie sont courants. Xerox, en échange d’une participation minoritaire dans Apple (environ 1 million de dollars en actions à l’époque), autorise une délégation de la firme à pénétrer dans les secrets du PARC. Jobs et ses ingénieurs découvrent alors la souris, la GUI et le concept WYSIWYG. Ces visites – et plus particulièrement la deuxième, souvent évoquée dans les récits historiques – seront déterminantes.
De retour chez Apple, les équipes de Jobs s’inspirent directement de l’Alto pour concevoir l’Apple Lisa, puis le Macintosh. Bien que le Lisa soit un échec commercial en 1983 en raison de son prix élevé, le Macintosh de 1984, avec son interface graphique intuitive et sa souris, deviendra l’un des jalons fondateurs de l’informatique grand public. Le succès d’Apple démontre l’importance non seulement de l’invention, mais aussi du bon timing et du marketing.
L’héritage du Xerox Alto dans la Silicon Valley
L’histoire du Xerox Alto illustre parfaitement la dynamique de la Silicon Valley : un écosystème où la recherche avancée, souvent financée par de grandes entreprises ou par des fonds d’investissement, se confronte au pragmatisme des entrepreneurs capables d’identifier, de perfectionner et de mettre sur le marché une idée novatrice.
Si Xerox n’a pas capitalisé directement sur l’Alto, ce dernier est à l’origine d’un héritage conceptuel considérable. L’informatique personnelle moderne, avec ses interfaces graphiques conviviales, l’utilisation de la souris, les réseaux locaux, et l’édition en WYSIWYG, porte la marque de ce laboratoire d’idées des années 1970.
Les leçons tirées de cette histoire transcendent Xerox et Apple. Elles montrent que la Silicon Valley n’est pas qu’un simple cluster d’entreprises. C’est un terreau fertile, où les visions d’ingénieurs, de chercheurs et de designers échangent, s’enrichissent, se complètent. Le Xerox Alto fut la graine ; Apple, et d’autres, la récolte.
Le Xerox Alto est le témoin d’une époque où la Silicon Valley se cherchait encore, se construisait pièce par pièce, brevet par brevet, prototype après prototype. S’il n’a pas rencontré de succès commercial sous la bannière de Xerox, son influence a profondément marqué l’informatique personnelle. Et si l’on se souvient mieux du Macintosh ou de Microsoft Windows, c’est en partie grâce à ces premières semailles technologiques plantées au Xerox PARC. En cela, l’histoire du Xerox Alto, de son environnement révolutionnaire et de son partage avec des visionnaires comme Steve Jobs, résume l’essence même de la Silicon Valley : l’innovation, la transmission des idées et la capacité d’un écosystème à transformer la vision en révolution.
- Anmelden oder Registrieren, um Kommentare verfassen zu können
Tags
Du jeu vidéo à une IA qui intéresse les militaires !

Ce week-end, alors que je faisais du rangement, je suis tombé sur une boîte pleine de vieilles photos. Parmi elles, une image m’a particulièrement interpellé : un cliché de moi, encore enfant, devant un paysage magnifique. Les souvenirs sont remontés en cascade, mais impossible de me souvenir précisément de l’endroit où cette photo avait été prise. Était-ce pendant nos vacances d’été dans le sud de la France, ou bien ailleurs.
Malgré mes efforts pour scruter les moindres détails – la forme des bâtiments, la végétation environnante – rien ne me revenait. Cette image était devenue une énigme. Frustré mais intrigué, je me suis demandé s’il était possible de retrouver un lieu précis à partir d’un simple cliché ?
C’est cette réflexion qui m’a conduit à découvrir GeoGuessr, un jeu qui pousse cette quête d’identification à son paroxysme. Ce qui aurait pu rester une simple curiosité personnelle s’est transformé en une exploration fascinante d’un outil qui dépasse largement le cadre du loisir. Voici où m’a mené cette enquête.
GeoGuessr : Apprendre le Monde par l’Observation
GeoGuessr est un jeu unique en son genre. Créé en 2013 par le développeur suédois Anton Wallén, ce jeu sur navigateur repose sur un principe simple mais audacieux : placer le joueur dans un lieu aléatoire, quelque part dans le monde, à partir d’une image issue de Google Street View. Sa mission ? Deviner avec précision où elle a été prise.
La simplicité apparente de GeoGuessr masque une profondeur insoupçonnée. Le joueur doit interpréter des détails parfois insignifiants pour trouver un lieu. La couleur des lignes sur la route, les poteaux électriques, la végétation, la langue utilisée sur les panneaux ou même l’ombre d’un chameau sont autant d’indices qu’il faut analyser rapidement. Cela demande une capacité d’observation hors du commun et une connaissance approfondie des spécificités régionales.
Cette complexité explique pourquoi GeoGuessr a été longtemps un jeu de niche. Sa difficulté décourageait les joueurs occasionnels, qui, après quelques essais infructueux, abandonnaient face à l’immensité du défi. Pourtant, le confinement a offert une opportunité unique à ce jeu. À une époque où voyager était impossible, GeoGuessr est devenu une fenêtre virtuelle sur le monde, permettant de redécouvrir la beauté de lieux lointains tout en stimulant l’esprit.
L’IA Pigeon : Quand GeoGuessr inspire les technologies militaires
GeoGuessr ne s’est pas arrêté au domaine du loisir. En 2022, des chercheurs de l’université de Stanford ont présenté une intelligence artificielle révolutionnaire : Pigeon (PREDICTING IMAGE GEOLOCATIONS). En s’appuyant sur des données de GeoGuessr, cette IA a été entraînée à localiser des lieux dans le monde avec une précision remarquable. La méthode ? Utiliser les mêmes indices que les joueurs expérimentés, tels que la topographie, les infrastructures ou encore les détails environnementaux, mais à une échelle et à une vitesse incomparable.
Pigeon a rapidement démontré des performances spectaculaires, surpassant les meilleurs joueurs humains. Capable de localiser une position avec une marge d’erreur moyenne de 44 kilomètres – une distance qui tombe à 8 kilomètres dans des régions densément peuplées – cette IA est une prouesse technologique. Pourtant, les implications de cette avancée dépassent largement le domaine ludique.
Dans le domaine militaire, la capacité à repérer un terrain et à localiser un lieu précis sans GPS est cruciale. En cas de brouillage des communications, des systèmes alternatifs comme celui de Pigeon pourraient permettre à des missiles ou drones de recalibrer leur trajectoire. En France, certains missiles intègrent déjà des systèmes de navigation inertielle qui utilisent des données terrain pour pallier l’absence de signal GPS. Toutefois, une IA comme Pigeon, combinée à des algorithmes d’apprentissage, pourrait améliorer significativement cette technologie en permettant une localisation autonome basée sur des images capturées en temps réel.
Cette capacité soulève des questions. Une telle IA, utilisée à des fins militaires, pourrait réduire les erreurs de ciblage mais également accroître l’efficacité de frappes stratégiques, amplifiant les destructions potentielles. C’est notamment pour ces raisons que les chercheurs de Stanford ont décidé de ne pas rendre leurs données publiques.
GeoGuessr : Un Outil d’Utilité Publique ?
Au-delà des avancées technologiques et des controverses militaires, GeoGuessr a également montré son potentiel humanitaire et éducatif. Des joueurs, comme le célèbre Rainbolt, un youtubeur spécialisé sur Geoguessr, utilisent leurs compétences pour aider des personnes à retrouver des lieux précieux. Ces demandes vont de la simple curiosité à des quêtes bien plus profondes : recréer des souvenirs d’enfance, localiser des endroits où des proches disparus ont vécu ou encore immortaliser des lieux chargés d’émotions.
Rainbolt, avec sa communauté a ainsi redonné espoir à de nombreuses personnes en quête de réponses. Ces gestes, bien que simples, illustrent la manière dont un outil aussi singulier que GeoGuessr peut transcender son statut de jeu pour devenir une passerelle vers des expériences humaines touchantes.
D’un autre côté, GeoGuessr est également un fantastique outil pédagogique. En s’immergeant dans des paysages variés, les joueurs apprennent à identifier des éléments géographiques, culturels et linguistiques propres à chaque coin du monde.
Finalement, après avoir tourné la photo dans tous les sens et tenté de deviner le lieu, je n’ai pas pu résoudre l’énigme par moi-même. Même avec tous les détails observés, je n’étais toujours pas certain de l’endroit où cette photo avait été prise. J’ai donc dû demander à mes parents, qui m’ont révélé que ce moment remontait à mes premières vacances d’été dans le sud de la France, en 2003.
GeoGuessr n’est pas qu’un simple jeu, c’est une invitation à prendre le temps d'explorer et de comprendre le monde. À travers ses défis, il nous pousse à observer, apprendre et à repousser nos limites. Qu’il s’agisse d’un simple divertissement ou d’un outil d’innovation technologique, il nous rappelle que chaque détail compte pour découvrir et comprendre ce qui nous entoure.
- Anmelden oder Registrieren, um Kommentare verfassen zu können
Le Bug Informatique: Ses origines et son évolution

Dans notre dernier article, nous avons évoqué l'héritage de Grace Hopper, pionnière de l'informatique, en soulignant son rôle dans la popularisation du terme "bug".
Cette anecdote célèbre, où une mite fut trouvée coincée dans le Harvard Mark II, illustre avec humour l'origine du mot dans un contexte informatique. Mais au-delà de cette histoire, que signifie réellement un "bug" informatique, et pourquoi reste-t-il un défi persistant pour les ingénieurs ?
L’origine du mot "bug" en ingénierie remonte bien avant l’ère informatique. À la fin du XIXᵉ siècle, Thomas Edison utilisait déjà ce terme pour décrire des défauts dans des systèmes mécaniques et électriques. Dans une de ses correspondance, il évoquait des "bugs" dans son travail sur le télégraphe quadruplex, des problèmes imprévus qu’il cherchait à résoudre avec des solutions innovantes comme le "bug trap" (piège à insectes). Une anecdote raconte qu’un cafard imbibé d’encre avait perturbé un circuit, provoquant un déséquilibre.
Comme vu auparavant, en 1947, une mite coincée dans un relai du Harvard Mark II a été notée par Grace Hopper comme le "premier bug réel", renforçant l'association du terme avec les erreurs informatiques.
Depuis ces débuts anecdotiques, les bugs se sont imposés comme des éléments indissociables du monde de l'informatique. Ils deviennent omniprésents, allant de simples erreurs d’affichage à des défaillances catastrophiques, comme l’explosion de la fusée Ariane 5 en 1996 sous les yeux de François Mitterrand qui avait le déplacement en Guyane spécialement pour assister à ce premier lancement.
En effet, les bugs peuvent survenir à divers niveaux :
- Dans le code des applications, souvent à cause d’erreurs humaines ou de la complexité des interactions.
- Au sein des composants matériels, comme le montre le bug de la division des processeurs Intel Pentium, où ces derniers possédez des erreurs sur les résultats de certaines divisions.
- Dans les systèmes critiques, où une simple faille peut entraîner des conséquences graves, que ce soit pour la sécurité aérienne, les finances ou la santé.
Leurs impacts va au-delà des pertes économiques. Ils symbolisent la fragilité des systèmes, rappelant que même les avancées les plus sophistiquées peuvent être compromises par une simple erreur, un grain de sable.
Le choix du mot "bug" dépasse son aspect anecdotique. Les insectes, tout comme les défauts informatiques, provoquent la plupart du temps une réaction instinctive de rejet, liée à leur capacité à apparaître de manière inattendue et à perturber l’ordre établi. L'insecte représente une menace invisible, une métaphore parfaite pour les défauts souvent difficiles à détecter dans les systèmes complexes.
Les ingénieurs et développeurs, dans cette analogie, deviennent des exterminateurs modernes, traquant et éliminant ces anomalies en déployant des correctifs (patches) avant qu’elles ne causent des dégâts.
Les bugs posent alors une question fondamentale : Dans un monde de plus en plus numérique, peut-on espérer un jour créer des systèmes sans défaut ?
Les optimistes diraient que les progrès technologiques comme l’intelligence artificielle et les outils de surveillance nous rapprochent de cet idéal. Cependant, la réalité rappelle que la complexité croissante des systèmes rend cette quête illusoire mais qu’il est possible d’atténuer les risques et de construire des systèmes résiliants.
Le bug, dans toute sa simplicité, incarne l’intersection de l’imperfection humaine et de la complexité technologique. Il nous rappelle que l’erreur est inévitable, mais aussi qu’elle peut être une source d’apprentissage. À mesure que les systèmes informatiques se développent, les ingénieurs continueront de traquer ces anomalies, non pas pour les éliminer totalement, mais pour minimiser leur impact et bâtir un futur numérique plus fiable.
Le mot "bug", hérité de Grace Hopper et de Thomas Edison, restera ainsi un emblème durable des défis et des triomphes de l’informatique. Et il n'est pas près de disparaitre.
- Anmelden oder Registrieren, um Kommentare verfassen zu können
Femme de la tech: Grace Hopper

Grace Brewster Murray, née le 9 décembre 1906 à New York, est l’une des figures les plus marquantes et emblématiques de l’histoire de l’informatique. Dès son plus jeune âge, Grace Hopper s’est distinguée par sa curiosité insatiable et sa passion pour les sciences.
Elle est diplômée en mathématiques et physique du Vassar College en 1928, puis poursuit brillamment ses études à Yale, où elle obtient un master en 1930, suivi d’un doctorat en 1934, à une époque où peu de femmes accédaient à un tel niveau d’éducation.
Elle retourne ensuite à Vassar en tant que professeure, combinant pédagogie et recherche. Toutefois, son désir de contribuer davantage à la société la pousse à s’engager dans la marine américaine en 1943, en pleine Seconde Guerre mondiale.
Affectée au projet Mark I à l’université Harvard, Hopper joue un rôle essentiel dans le développement de ce premier ordinateur programmable. Bien que Howard Aiken, son supérieur, ait initialement douté de ses capacités, sa rigueur et son talent pour la programmation finissent par s’imposer. Cette période marque le début de son ascension dans le monde de l’informatique. Après la guerre, elle poursuit son travail sur les ordinateurs Mark II et Mark III, tout en s’intéressant de près aux applications pratiques de ces machines.
En 1949, Grace Hopper rejoint la Eckert-Mauchly Computer Corporation, où elle contribue à des projets révolutionnaires pour l’époque. En 1951, elle conçoit le premier compilateur, le A-0 System, destiné à l’ordinateur UNIVAC I.
Ce système, capable de traduire des instructions humaines en langage machine, marque un tournant dans l’histoire de l’informatique. Son idée de créer des langages plus proches de l’anglais, jugée audacieuse à l’époque, aboutit au développement du FLOW-MATIC, un langage qui influencera directement la création du COBOL en 1959. COBOL, ou Common Business-Oriented Language, révolutionna l’industrie en rendant la programmation accessible à des professionnels non informaticiens, notamment dans les secteurs bancaires et commerciaux.
Malgré son départ forcé de la marine en 1966 en raison de son âge, Hopper est rappelée en 1967, signe de l’importance de son expertise. Durant cette période, elle contribue à établir des normes pour des langages comme Fortran et COBOL, renforçant leur adoption à l’échelle mondiale.
Elle grimpe les échelons jusqu’au grade de Rear admiral (contre-amiral), devenant l’une des rares femmes à atteindre ce rang dans l’histoire de la marine américaine. Elle prend officiellement sa retraite militaire en 1986, alors qu’elle est l’officier le plus âgé de la flotte. Cependant, son esprit infatigable la pousse à continuer son travail comme consultante pour Digital Equipment Corporation, où elle partage son expérience et son savoir jusqu’à son décès en 1992.
Les nombreuses distinctions reçues par Grace Hopper témoignent de son immense impact. En 1986, elle est décorée de la Defense Distinguished Service Medal, et en 1991, elle devient la première femme à recevoir la National Medal of Technology. En 2016, son influence est reconnue à titre posthume par le président Barack Obama, qui lui décerne la Médaille présidentielle de la Liberté, la plus haute distinction civile aux États-Unis. En son honneur, des lieux comme le destroyer USS Hopper, des conférences internationales sur les femmes en informatique, ou encore une place à Paris et une rue à Montréal portent son nom.
Par ailleurs, Grace Hopper est célèbre pour avoir popularisé le terme "bug" en informatique, après la découverte d’une mite coincée dans les circuits du Mark II sur lequel elle et son équipe travaillaient. Cet épisode anecdotique illustre à la fois son humour et sa capacité à simplifier des concepts complexes.
En outre, elle a prôné toute sa vie une informatique accessible, insistant sur l’idée que la technologie devait servir les individus et non l’inverse. Féministe avant l’heure, elle a ouvert la voie à de nombreuses femmes dans un domaine majoritairement dominé par les hommes, leur montrant qu’il était possible de briser les barrières sociales et culturelles.
Grace Hopper incarne une synthèse unique entre l’innovation scientifique, la pédagogie et le leadership. Grâce à ses contributions majeures, elle reste une figure incontournable de l’informatique moderne. Son héritage, visible à travers le COBOL, le concept de compilateur ou la notion de bug, continue de façonner notre quotidien, rappelant l’importance de l’audace et de la persévérance dans la quête de progrès.
Par son exemple, elle inspire les générations futures à rêver grand et à transformer ces rêves en réalités.
- Anmelden oder Registrieren, um Kommentare verfassen zu können
SPAM : De la boîte de conserve aux boîtes mail

Le mot "SPAM" est aujourd’hui synonyme du courrier indésirable qui envahit nos boîtes mails, mais son origine est bien antérieure à l'ère numérique. Derrière ces quatre lettres se cache une histoire avec un grand H : Insolite mêlant publicité, culture populaire et humour britannique.
SPAM, Un produit de conserve devenu culte
L’histoire débute en 1937, lorsque la société américaine Hormel Foods lance un produit innovant : une conserve de viande de porc et de jambon, au goût légèrement épicé. Le nom "SPAM", contraction de "Spiced Ham", est choisi car il est court, percutant et facile à retenir.
La simplicité du produit et sa longue conservation en font un succès immédiat. Pendant la Seconde Guerre mondiale, le SPAM devient un aliment de base pour les soldats des forces alliées. Facile à transporter et à cuisiner, il nourrit les troupes sur les fronts européens et asiatiques. Cette exposition mondiale le transforme en un produit iconique, bien au-delà des États-Unis.
Cependant, son omniprésence durant la guerre – certains soldats se plaignant d’en manger "matin, midi et soir" – contribue à sa réputation d’intrus envahissant, une perception qui deviendra la clé de son lien avec le SPAM numérique. Au fil du temps cette nourriture était devenue indésirable.
Un sketch hilarant qui a changé la donne
En 1970, le groupe comique britannique Monty Python donne au mot "SPAM" une nouvelle dimension dans un de leurs sketches les plus célèbres. La scène se déroule dans un petit café typiquement anglais. Un couple entre pour commander un repas, mais découvre rapidement que presque tous les plats proposés contiennent du SPAM.
La serveuse énumère inlassablement des options comme :
"Œufs et SPAM, saucisses et SPAM, bacon et SPAM, SPAM et SPAM…".
Alors qu’elle continue de répéter "SPAM" à chaque proposition, un groupe de Vikings assis dans le café commence à chanter une ritournelle absurde :
"SPAM, SPAM, SPAM, SPAM… lovely SPAM, wonderful SPAM !"
Le sketch tourne à l’absurde avec une répétition incessante du mot SPAM, rendant toute tentative de communication normale impossible. Il devient culte et transforme SPAM en symbole d’une intrusion irritante, omniprésente et difficile à ignorer.
L’ère numérique : le SPAM devient une tsunami de messages
Avec l’arrivée d’Internet dans les années 1990, le terme SPAM est adopté par les internautes pour désigner une nouvelle forme de nuisance : les e-mails indésirables. Ces messages, souvent publicitaires, envahissent les boîtes emails et saturent les serveurs de messagerie.
Le lien avec le sketch des Monty Python est facilement fait : tout comme le SPAM inonde les plats du menu du café, les e-mails indésirables submergent les boîtes de réception, rendant difficile l’accès aux messages importants. Cette analogie humoristique contribue à la popularisation rapide du terme.
Si l’origine du mot prête à sourire, le SPAM est devenu un véritable enjeu de cybersécurité. Ce phénomène s’est diversifié et peut aujourd’hui inclure :
- Le phishing (hameçonnage) : messages frauduleux visant à voler des données personnelles ou financières.
- Les arnaques : loteries fictives, fausses offres d’emploi ou tentatives d’extorsion.
- Les malwares : logiciels malveillants diffusés via des pièces jointes ou des liens.
Les entreprises et les particuliers investissent désormais dans des solutions antispam pour contrer cette menace omniprésente. C'est devenu même un sujet politique au point qu'une association d'utilité publique (Signal-Spam) gère la plateforme nationale de signalement du spam. Elle permet de consulter par trimestre le baromètre du spam et aide les autorités à bloquer les pages de phishing.
L’histoire du mot SPAM est fascinante par son évolution : d’une conserve de viande populaire mais qui finit par dégouter les soldats, à un symbole d’invasion numérique, en passant par un sketch. Ce parcours montre comment un simple mot peut transcender les époques et devenir universel.
Alors, la prochaine fois que vous supprimez un e-mail non désiré, pensez à cette boîte de conserve devenue un symbole intemporel… et à ces Vikings chantant "lovely SPAM" dans un café imaginaire.
- Anmelden oder Registrieren, um Kommentare verfassen zu können
William Hewlett et David Packard : Les Pionniers qui ont Façonné la Silicon Valley

Lorsque l’on évoque l’origine de la Silicon Valley, deux noms reviennent invariablement : William Hewlett et David Packard. Fondateurs de la société Hewlett-Packard, ils ont non seulement créé l’une des entreprises technologiques les plus influentes du XXᵉ siècle, mais ont également établi un modèle d’innovation et de collaboration qui a défini l’esprit de la Silicon Valley. Leur relation étroite avec l’Université de Stanford a été le catalyseur d’une révolution technologique sans précédent.
La Rencontre à Stanford et l’Influence de Frederick Terman
En 1930, William Hewlett et David Packard se rencontrent à l’Université de Stanford, à Palo Alto, en Californie. Sous la tutelle du professeur Frederick Terman, considéré comme le “père de la Silicon Valley”, ils étudient l’ingénierie électrique. Terman encourage activement ses étudiants à rester dans la région et à y développer des entreprises technologiques, une idée révolutionnaire pour l’époque.
Après avoir obtenu leurs diplômes — Hewlett un Master en Ingénierie Électrique en 1936 et Packard un diplôme d’ingénieur en 1934 — les deux amis décident de concrétiser la vision de Terman. En 1938, ils commencent à travailler ensemble dans un garage loué par Packard au 367 Addison Avenue à Palo Alto.
La Naissance de Hewlett-Packard dans un Garage
Le 1er janvier 1939, avec un capital initial de 538 Dollars, Hewlett et Packard fondent officiellement Hewlett-Packard Company. Ils décident du nom de l’entreprise en tirant à pile ou face pour déterminer l’ordre des noms—Hewlett sort en premier et ainsi naît HP.
Le garage où tout a commencé est aujourd’hui un monument historique, souvent appelé le “lieu de naissance de la Silicon Valley”. C’est dans cet espace modeste qu’ils développent leur premier produit : l’oscillateur audio HP 200A.
L’Oscillateur HP 200A et le Premier Grand Client
L’oscillateur HP 200A se distingue par son utilisation innovante d’une ampoule électrique comme résistance thermique, ce qui améliore la stabilité et réduit les coûts de production. Cette innovation attira rapidement l’attention.
Une anecdote marquante concerne Walt Disney Studios. En 1940, préparant la sortie du film “Fantasia”, Disney recherchait des oscillateurs audios fiables pour développer un système de son surround innovant, le Fantasound. Impressionné par la qualité et le prix compétitif du HP 200A, Disney en commanda huit unités, devenant l’un des premiers clients majeurs de HP.
Le Partenariat avec l’Université de Stanford
Le lien entre HP et Stanford ne se limite pas à la formation des fondateurs. Frederick Terman continua de jouer un rôle actif en encourageant la collaboration entre l’université et l’industrie. En 1951, Stanford crée le Stanford Industrial Park (aujourd’hui le Stanford Research Park), le premier parc industriel au monde lié à une université. HP est l’une des premières entreprises à s’y installer, renforçant les liens entre recherche académique et développement industriel.
Des Innovations qui façonnèrent l’Industrie Technologique
Au cours des années 1950 et 1960, HP élargit sa gamme de produits pour inclure des équipements de test, des instruments de mesure et finalement des ordinateurs. En 1966, HP lance son premier ordinateur, le HP 2116A, conçu pour contrôler les instruments de mesure.
Une anecdote se passe en 1968 est lancée la HP 9100A considérée comme la première calculatrice scientifique programmable de bureau. Pour l’anecdote, HP évita d’utiliser le terme “ordinateur” dans sa promotion commerciale pour ne pas effrayer les clients potentiels avec un produit qui était perçu comme complexe et coûteux.
En 1972, HP introduit le HP-35, la première calculatrice scientifique de poche au monde. Cet appareil révolutionnaire remplaça les règles à calcul utilisées par les ingénieurs et les scientifiques, démocratisant l’accès aux calculs complexes.
Le “HP Way” : Une Culture d’Entreprise Unique
Hewlett et Packard ont réussi à bâtir une culture d’entreprise centrée sur le respect, la confiance et l’innovation, connue sous le nom de “HP Way”. Pour y parvenir, ils mirent en place des pratiques managériales progressistes, comme la gestion par objectifs, des horaires flexibles et un environnement de travail ouvert. En 1957, lors de l’introduction en bourse de HP, ils instaurent un programme d’actionnariat salarié, offrant aux employés une participation directe au succès de l’entreprise.
L’Héritage Durable et l’Impact sur la Silicon Valley
Le modèle de collaboration entre HP et Stanford inspira de nombreuses autres entreprises et entrepreneurs. La proximité géographique et intellectuelle entre l’université et l’industrie crée un écosystème propice à l’innovation. Des sociétés comme Fairchild Semiconductor, Intel et Apple ont suivi les traces de HP, consolidant la réputation de la Silicon Valley comme centre mondial de la technologie.
En 1987, pour célébrer le 50ᵉ anniversaire de HP, le garage du 367 Addison Avenue a été restauré et reconnu comme point d’intérêt historique par la ville de Palo Alto et l’État de Californie (California Historical Landmarks). Par la suite il a été classé monument historique par l’état fédéral en 2007. Une plaque commémorative des monuments nationaux désigne ce garage comme le lieu de naissance de la Silicon Valley
William Hewlett et David Packard n’ont pas seulement fondé une entreprise prospère ; ils ont instauré une philosophie de l’innovation et de la collaboration qui a défini la Silicon Valley. Leur partenariat avec l’Université de Stanford a créé un modèle d’intégration entre l’éducation et l’industrie, stimulant une explosion technologique qui continue d’influencer le monde.
Leur héritage perdure non seulement à travers les produits et les innovations de HP, mais aussi dans la culture entrepreneuriale et collaborative qui caractérise encore aujourd’hui la Silicon Valley. Leur histoire est un témoignage du pouvoir de la vision, de l’amitié et de l’engagement envers l’excellence.
- Anmelden oder Registrieren, um Kommentare verfassen zu können
L’Homme et la Carte : Une Histoire de la Navigation, de la Boussole au Virtuel

L’évolution des outils de navigation humaine est un exemple fascinant de la manière dont les progrès technologiques ont transformé notre manière de se repérer, de mémoriser et d’interagir avec le monde. Depuis les premiers systèmes d’orientation basés sur la nature, l'Homme a su s'adapter et inventer de nouvelles méthodes pour mieux comprendre et cartographier son environnement.
Les Origines de la Navigation
L’Homme a utilisé des repères naturels comme les montagnes, les rivières et surtout les constellations pour se déplacer. Par exemple, les navigateurs polynésiens se servaient des vagues, des courants marins et des oiseaux pour trouver des îles éloignées, tandis que les marins européens observaient l’étoile polaire pour naviguer dans l’hémisphère nord. Les étoiles, en particulier, ont longtemps guidé les navigateurs dans leurs explorations, leur offrant un point de référence constant dans le ciel nocturne. Ce lien avec la nature a marqué une étape importante dans l’histoire de la navigation, l’Homme apprenant à observer son environnement et à interpréter les indices qu'il offre.
L’invention de la boussole en Chine au 11e siècle a marqué une avancée révolutionnaire, permettant aux navigateurs de déterminer les directions avec plus de précision, même en l'absence de repères naturels visibles. Avec le temps, les boussoles se sont affinées, et leur usage est devenu essentiel pour les marins et les explorateurs terrestres. En parallèle, les cartes physiques sont devenues des outils précieux pour représenter et mémoriser les routes, passant d’une simple aide pour l’exploration à un moyen de documenter et de transmettre des connaissances géographiques.
Cependant, bien que pratiques, les cartes papier présentaient des inexactitudes et des omissions, souvent dues à des méthodes de cartographie imprécises ou à des chemins omis. Ces cartes demandaient d'être mises à jour régulièrement, car les chemins et les infrastructures évoluaient, ce qui pouvait amener à des erreurs de parcours et rendre certains trajets risqués. Cette étape dans l'histoire de la navigation illustre les premières tentatives de l’Homme pour maîtriser et enregistrer son environnement.
D'autres outils de navigation ont également été inventés au fil des siècles, tels que le sextant, l'astrolabe, le chronomètre, ainsi que des instruments de mesure des distances comme le compas et les dividers. Chacun de ces outils a contribué à l'évolution des techniques de navigation et à la précision des trajets maritimes et terrestres.
Le GPS
L’apparition du GPS (Global Positioning System) dans les années 1970, initialement conçu pour un usage militaire, a représenté un progrès significatif pour la navigation humaine. Ce système satellitaire permet de déterminer des positions avec grande précision, transformant la manière dont nous naviguons au quotidien. Des entreprises comme TomTom ont exploité cette technologie pour commercialiser des appareils de navigation portables, qui sont rapidement devenus des compagnons indispensables pour les personnes cherchant leurs chemins. En quelques décennies, les cartes électroniques ont pris le pas sur les cartes papier, permettant aux utilisateurs de se repérer en temps réel, d’anticiper les embouteillages et d’éviter les itinéraires non fiables.
Street View
L’arrivée de Google avec son service Google Maps, suivi du lancement de Google Street View le 25 mai 2007, a inauguré un nouveau chapitre dans l'histoire de la navigation et de la cartographie immersive. Google Street View a permis aux utilisateurs de visualiser des panoramas à 360 degrés, parcourir des rues et des sites à travers le monde. Ces vues ont été capturés par des véhicules équipés de caméras omnidirectionnelles, mais par seulement. L'ambition du projet a mené Google à employer des méthodes inattendues comme des caméras montées sur des chiens de traîneau dans l'Arctique, des chameaux dans le désert et même des randonneurs équipés de sacs à dos pour explorer des zones inaccessibles aux véhicules, comme la jungle amazonienne ou les sentiers du Grand Canyon.
Aujourd’hui, d'autres entreprises et groupes de recherche ont suivi l'exemple de Google, développant leurs propres systèmes de cartographie immersive. En Chine, Baidu a lancé une version similaire pour son propre service de cartes, offrant une expérience Street View dans plusieurs villes chinoises. D'autres plateformes dans le monde, comme Yandex en Russie ou Mapillary en Suède, ont également adopté des technologies de visualisation immersive, permettant aux utilisateurs de naviguer virtuellement dans les rues, les sentiers et les espaces naturels.
Et l’éthique dans tout ça ?
L'impact de ces services va bien au-delà de la navigation. Grâce à la fonctionnalité de "retour dans le temps", les utilisateurs peuvent explorer des images historiques de certains lieux et observer leur évolution au fil des années. Cette capacité à remonter jusqu'à vingt ans en arrière permet de revisiter des lieux chers, de retrouver des images anciennes de quartiers transformés ou même de revoir des scènes de la vie quotidienne impliquant des proches aujourd'hui absents. Ce caractère d'archivage visuel a déclenché des discussions sur l'importance de conserver ces données pour les générations futures et sur leur intérêt pour documenter l'histoire et les changements de notre monde avec une précision sans précédent.
Ainsi, en Asie, plusieurs internautes ont partagé des expériences de recherche de leur ancêtres aux détour de parcours dans les rues figées dans le temps. Tentant de les reconnaitre en visant leur quartier et par leur vêtements, ils croisent parfois les fantômes de leurs aïeux capturés au hasard par un véhicule. Doit-on leur enlever cette mémoire ?
En effet, cette avancée technologique n'est pas exempte de controverses. En offrant un accès détaillé à des lieux en théorie uniquement "publics", Google Street View, comme ses concurrents, soulève des questions de vie privée. Des ONG comme Privacy International ont critiqué les risques liés à la collecte d'images, pointant la visibilité de scènes sensibles ou privées.
En réponse, Google a introduit des technologies de floutage automatique pour protéger l'identité des personnes, ou encore les numéro de plaques d’immatriculation, et s'engage à supprimer les images à la demande. Néanmoins, des incidents, comme la collecte involontaire de données Wi-Fi par les "Google Cars", avaient entraîné des enquêtes et des sanctions dans plusieurs pays, notamment une amende de 100 000 euros prononcée par la CNIL en France en 2010.
Des constellations à la réalité virtuelle et à la capture de vrais instants passés, l’évolution des outils de navigation humaine témoigne de l’ingéniosité humaine et de son besoin constant d’explorer. Au fil des siècles, les innovations ont non seulement permis de rendre les trajets plus sûrs et plus accessibles, mais elles ont aussi transformé notre manière de voir et d'interagir avec notre monde avec des implications pour l’avenir que nous devons anticiper avec prudence et responsabilité.
- Anmelden oder Registrieren, um Kommentare verfassen zu können
Lanceurs d’alerte en cybersécurité : Entre transparence nécessaire et risques collatéraux

Dans un monde où les cyberattaques se multiplient et deviennent de plus en plus sophistiquées, les lanceurs d’alerte en jouent un rôle particulier. Ces individus ou organisations divulguent publiquement des informations sur des compromissions de données, souvent exfiltrées par des attaquants. Leur objectif principal est d’informer le public et les utilisateurs potentiellement affectés par ces fuites de données. Mais leur action soulève des questions complexes sur les bénéfices et les risques associés cette volonté d'informer à tout prix et de faire le scoop au nom de la transparence.
Des sentinelles au service des utilisateurs
Les lanceurs d’alerte agissent souvent comme des sentinelles, veillant à ce que les utilisateurs soient informés des compromissions de leurs données personnelles. Sans leur intervention, il est probable que de nombreuses entreprises choisiraient de garder le silence sur les incidents de sécurité, malgré le RGPD, cherchant à protéger leur réputation et éviter les conséquences financières liées, pas toujours faciles à mesurer, à une perte de confiance des clients ou des réclamations.
Cette transparence bénéficie aux utilisateurs en leur permettant de prendre des mesures pour protéger leurs informations personnelles, comme changer leurs mots de passe, informer des tiers comme leur banque, ou surveiller leurs comptes pour détecter des activités suspectes. De plus, la divulgation publique permet de maintenir une forme de pression sur les entreprises pour qu'elles améliorent leurs pratiques et adoptent des mesures préventives plus robustes.
Un jeu dangereux avec les cybercriminels
Cependant, la diffusion d’informations par les lanceurs d’alerte peut servir les intérêts des cybercriminels. En donnant de la résonance aux messages des cybermafias, il y a un risque d'amplification de l’impact des attaques qui peut exacerber les difficultés rencontrées par les entreprises victimes. Cette visibilité accrue peut inciter les cybercriminels à intensifier leurs activités, sachant que leurs actions recevront une large couverture médiatique.
De plus, la publication prématurée de détails sur une cyberattaque peut entraver les efforts des équipes de sécurité pour contenir l’incident et mener une enquête efficace. Les entreprises peuvent se retrouver submergées par la gestion de leur leur communication de crise et de leur image au lieu de se concentrer sur la résolution technique du problème.
Le dilemme du timing et la quête de visibilité
Le timing de la communication est au cœur de cette problématique. Les lanceurs d’alertes sont souvent motivés par le besoin de rapidité, cherchant à être les premiers à révéler l’information pour maximiser leur visibilité et générer de l’engagement sur les réseaux sociaux. Cette course à l’exclusivité peut nuire aux efforts de gestion de crise des entreprises et compliquer la situation pour toutes les parties impliquées.
Si les lanceurs d’alerte attendaient la résolution de la crise avant de communiquer, ils pourraient fournir des informations plus précises et contextualisées, sans compromettre les efforts de remédiation. Cependant, le modèle économique basé sur la capture de l’attention, de l'immédiateté et l’engagement rapide ne favorise pas cette approche plus mesurée.
En conclusion
Le rôle des lanceurs d’alerte en cybersécurité est complexe et ambivalent. Leur action peut sembler combler moins une lacune laissée par un manque de régulation efficace qu'une interprétation laxiste de cette dernière, obligeant les entreprises à communiquer honnêtement sur les incidents cyber. Pourtant, le modèle économique qui les pousse à divulguer rapidement des informations sensibles peut parfois être considéré comme malsain et contre-productif.
Il est peut-être temps de repenser le cadre réglementaire entourant la divulgation des incidents de cybersécurité ou de gommer les zones grises des règlements en vigueur. En établissant des règles claires sur l’utilisation des informations issues du darknet et en imposant des obligations de transparence aux entreprises, il serait possible de protéger les intérêts des utilisateurs tout en minimisant les risques pour les entreprises.
Une collaboration plus étroite entre les régulateurs, les entreprises et lanceurs d’alertes est souhaitable pour favoriser un environnement numérique plus sûr et plus responsable tout en évitant les effets boomerang.
- Anmelden oder Registrieren, um Kommentare verfassen zu können
Le Prix Nobel de Physique 2024 : Quand l'IA rencontre la physique

Le 9 octobre 2024, le Prix Nobel de Physique a été attribué à John J. Hopfield et Geoffrey Hinton pour leurs contributions dans le domaine de l'intelligence artificielle, alors que l'IA est souvent perçue comme une discipline informatique. Ce prix met en lumière les racines profondes de l’IA dans la Physique et souligne la manière dont des concepts issus de cette discipline ont permis d'avancer dans le développement des IA.
John J. Hopfield : L’IA qui cherche à imiter le cerveau humain
John J. Hopfield a introduit une nouvelle approche pour l'intelligence artificielle, inspirée du fonctionnement du cerveau humain. Il a développé un modèle appelé réseau de neurones artificiels, où les neurones interagissent entre eux pour mémoriser et traiter des informations. Ce réseau est capable d'apprendre à reconnaître des motifs et à restaurer des données même si elles sont partiellement manquantes ou dégradées.
Le réseau de Hopfield fonctionne en utilisant un principe de mémoire associative. Après avoir été entraîné avec différents exemples d'une forme, ce réseau est capable de mémoriser ces variantes. Par la suite, si on lui présente une version légèrement différente ou incomplète de la forme, il peut la reconnaître en l'associant aux exemples qu'il a déjà appris. Ce mécanisme d'association permet au réseau de retrouver et compléter des informations même lorsqu'elles ne correspondent pas exactement aux données d'entraînement. C’est ce principe de mémoire associative qui a jeté les bases de nombreuses innovations en intelligence artificielle.
Geoffrey Hinton : Le passage au Deep Learning
Geoffrey Hinton, pour sa part, a franchi un pas de plus avec l’introduction du deep learning. L'une de ses contributions clés a été l'ajout de neurones cachés dans les réseaux neuronaux pour résoudre un problème majeur dans le machine learning traditionnel : le stockage des données. Avant cette avancée, les réseaux de neurones avaient du mal à traiter de grandes quantités d'informations et à généraliser à partir des données limitées qu'ils mémorisaient. Les neurones cachés permettent au réseau d'interpréter les données de manière plus efficace en réduisant la charge de stockage direct, tout en identifiant des structures sous-jacentes plus complexes.
Ces neurones cachés permettent à l’IA de ne pas seulement traiter des informations visibles comme des pixels, mais d’en dégager des modèles plus profonds et des concepts abstraits. Par exemple, ils permettent à des systèmes comme ChatGPT d’aller au-delà de la simple lecture des mots et d’essayer de comprendre le contexte global pour produire des réponses pertinentes.
Hinton a également introduit une composante aléatoire, inspirée par des concepts de la physique comme l'agitation thermique, pour rendre les réseaux plus flexibles. Cette approche aide l'IA à explorer différentes solutions avant de choisir la plus optimale. C'est cette flexibilité qui permet aux technologies d’aujourd'hui de gérer des tâches complexes, comme la conduite autonome, où les véhicules doivent réagir en temps réel à leur environnement, ou encore dans le domaine médical, où les algorithmes peuvent analyser des images et aider à diagnostiquer des maladies. Grâce à ces avancées, les systèmes d'IA sont capables de traiter des quantités massives de données tout en s’adaptant à des situations imprévues.
Pourquoi un Prix Nobel de Physique pour l’IA ?
Ce qui peut surprendre, c'est que ce prix Nobel, généralement attribué à des découvertes en physique pure, ait été décerné à des chercheurs travaillant sur des concepts d'IA. Mais l'innovation derrière les travaux de Hopfield et Hinton montre clairement que l'IA moderne puise largement dans la physique pour simuler des systèmes complexes.
Les réseaux neuronaux de Hopfield, par exemple, utilisent des équations inspirées du magnétisme et des systèmes de particules pour ajuster les connexions entre neurones. De même, la machine de Hinton, un autre modèle neuronal, repose sur une équation physique pour calculer l’agitation thermique, afin de déterminer les états les plus probables dans un réseau de neurone.
Ainsi, bien que l'IA soit une discipline issue de l'informatique, les bases de son développement moderne repose sur l'utilisation de fonctions et d'équations mathématiques et qui décrivent des principes de la physique. Ce sont bien ces travaux d'application à l'informatique de phénomènes physiques qui ont permis le développement des capacités des IA ces dernières années
- Anmelden oder Registrieren, um Kommentare verfassen zu können
Femme de la tech : Alice Recoque

Vous ne la connaissez peut-être pas. Alice Recoque était une informaticienne Française. C'est assez rare pour être mentionné, les portraits de femmes du monde de l'informatique sont souvent anglo-saxons. En France les ingénieurs ne sont pas médiatiques, alors quand il s'agit d'une femme dans les années 70-80, on a vite fait de l'oublier, pourtant...
Le nom de femme pionnière de l'informatique française et de l'IA, trop longtemps délaissé par l'histoire sera donné au nouveau supercalculateur européen dédié à la recherche. La bête sera capable d'exécuter plus d'un milliard de milliards de calculs par seconde, soit 1 Exaflop/s.
Née Alicia Maria Arnaud en Algérie en 1929, Alice Recoque obtient en 1954 le diplôme d'ingénieure dans la promotion de ESPCI. Dès sa sortie elle est embauchée à la Société d'électronique et d'automatisme qui était à cette époque la société qui fabriquait des ordinateurs Français.
Elle participe au développement du CAB500, un des premiers ordinateurs de bureau conversationnel (une grosse calculatrice). Elle travaille ensuite sur le calculateur industriel CINA et co-dirige le projet CAB 1500, lié aux machines à pile intégrant un ou plusieurs compilateurs
Par la suite, Alice Recoque représentera la Compagnie Internationale pour l'informatique CII auprès de l'INRIA dans le projet MIRIA ou elle travaillera sur les projets visant des ordinateurs plus petits. Elle devient responsable recherche et développement de la division Petits ordinateurs et systèmes associés et conduit le projet Mitra 15.
Le Mitra 15, est un des premiers mini-ordinateur de la CII commercialisé de 1971 à 1985. Plus de 7 000 exemplaires ont été fabriqués. Conçu et développé par l'équipe dirigé par Alice Recoque, le Mitra 15 permettait le contrôle-commande de processus industriels, le calcul scientifique, et avec des domaines d'application divers. Cette machine a dirigé des missiles, des centrales nucléaires, commandé des robots, servi à la recherche. Cette machine a été un succès Français.
Alice Recoque poursuivit ses recherches chez Bull sur les architectures multi-processeurs. Régulièrement jury de thèses, elle est nommée en 1982 membre de la commission d'informatique du Comité national de la recherche scientifique. Elle rédige le chapitre sur l'architecture des ordinateurs dans la publication de référence Techniques de l'ingénieur.
En 1978 elle participa à la réunion qui fonda la CNIL et dès cette elle époque elle s'inquiétait du pouvoir de surveillance que l'informatique peut procurer aux entreprises et aux États.
Nommée en 1985 Directrice pour la mission Intelligence artificielle par le groupe BULL, elle s’intéressa au comportement humain dans ce champ de recherche pour mieux le reproduire.
Elle pilota la stratégie de développement de BULL dans le domaine de l'IA (200 personnes) et travailla sur la compréhension des écrits (en Français) par l'IA, le développement de Langages orientés objets en Lisp et Prolog (2 langages de choix pour la recherche en IA).
Pendant les années 80, elle sera membre du comité national du CNRS et début 90 elle fera partie du comité d’évaluation du projet européen de traduction automatique Eurotra.
Parallèlement à ces activités Alice Recoque a enseigné l'informatique à l'ISEP, l’École centrale, l'École supérieure d'électricité, l'ESIEE Paris et l'Institut catholique de Paris.
A une époque où des budgets permettait à l'informatique française d'exister face à la puissance Américaine, elle appartient à une génération qui permis à la France de conquérir et de conserver son indépendance.
Au début de l'année une biographie lui a été consacrée par Marion Carré. Femme brillante et remarquable Alice Recoque nous a quittés en 2021.
- Anmelden oder Registrieren, um Kommentare verfassen zu können
La recherche d’information : De Google vers ChatGPT

Bien avant Internet, la recherche d'informations se faisait principalement dans les bibliothèques, où l'on passait des heures à feuilleter des livres, des encyclopédies et des revues pour obtenir des réponses. Accéder à des informations était un processus long et laborieux.
L'arrivée d'Internet a changé la donne. Yahoo, l'un des premiers moteurs de recherche lancé en 1994, a simplifié l'accès à l'information en offrant un répertoire de sites web organisé par catégories. Cependant, c’est avec la naissance de Google en 1998 que la recherche d'information a pris une dimension nouvelle. Google a rapidement dominé le marché des moteurs de recherche grâce à son algorithme PageRank, qui classait les résultats selon leur pertinence et popularité. La recherche d'information est devenue plus rapide, plus intuitive, et accessible à des milliards de personnes dans le monde entier.
Avec le temps, Google a développé de nouveaux service et amélioré sans cesse son moteur, jusqu’à devenir une partie intégrante de notre quotidien. Cependant, en 2020, un nouveau type de technologie a fait son apparition, modifiant une fois de plus la manière dont nous recherchons et consommons l'information : l'intelligence artificielle générative, avec des outils comme ChatGPT. Petit à petit, ces modèles offrent une alternative aux moteurs de recherche classiques.
Avec l'arrivée de ChatGPT, assiste-t-on à un bouleversement dans la recherche d'information ?
Les lacunes de Google face à Chat GPT
Bien que Google soit un outil qu’on utilise au quotidien, l'arrivée de ChatGPT a mis en lumière certaines limites des moteurs de recherche traditionnels, notamment :
- La lenteur des recherches en raison du volume massif de résultats : Lorsque l'on effectue une recherche sur Google, il n'est pas rare de voir des millions de résultats. Les trier peut s’avérer long et fastidieux.
- La navigation sur plusieurs sources : Google fournit une liste de liens vers différentes sources d'information. Cela implique de cliquer sur chaque lien, de lire plusieurs articles, puis de comparer les informations. Ce processus peut être complexe, surtout lorsque les réponses sont dispersées sur plusieurs sites.
- La publicité intrusive à tous les niveaux : Google étant financé par la publicité, les pages de résultats sont souvent encombrées de liens sponsorisés et d’annonces qui ne correspondent pas forcement aux résultats les plus pertinents. De plus, une fois rendu sur le site consulté, de nouvelles publicité et Pop-up apparaissent.
- Les biais algorithmiques : Les résultats de recherche de Google sont influencés par son algorithme, qui favorise les sites qui sont optimisés pour le SEO (référencement naturel). Par conséquent, les informations les plus tendance ne sont pas toujours les plus précises ou les plus objectives.
- Référencement payant : En plus des résultats déjà nombreux, Google propose des résultats sponsorisés. Les entreprises peuvent payer pour se classer en tête des résultats de recherche, ce qui peut fausser la pertinence des résultats.
CHANGEMENT DE PARADIGME EN VUE POUR La recherche SUR INTERNET
Avec ChatGPT, la recherche d'information prend une forme nouvelle et plus intuitive. Plusieurs caractéristiques marquent la différence avec Google :
- Recherche conversationnelle : Au lieu de fournir une liste de liens, ChatGPT engage les utilisateurs dans une conversation. Par exemple, si vous demandez « Quels sont les études pour travailler dans la cybersécurité ? », ChatGPT fournit une réponse en une seule interaction, et vous pouvez poser des questions supplémentaires pour explorer certains aspects.
- Réponses synthétiques : ChatGPT ne se contente pas de renvoyer des sources : il synthétise et formule une réponse concise à la demande de l'utilisateur. Cela permet d'obtenir directement les informations sans avoir à lire plusieurs articles. Par exemple, si vous cherchez « Comment fonctionne l'algorithme de Google ? », ChatGPT vous expliquera le concept de base en une réponse simple et directe, vous évitant de naviguer sur plusieurs sources.
- Temps réel : Les modèles d'IA comme ChatGPT sont capables de répondre instantanément aux questions en fonction des données sur lesquelles ils ont été formés, offrant ainsi une rapidité d'accès à l'information sans précédent.
- Recherche complexe avec un contexte : ChatGPT prend également en compte dans la gestion de requêtes les formes complexes où un contexte spécifique est nécessaire. Par exemple, au lieu de simplement chercher « Comment fonctionne l'IA », un utilisateur peut poser une question comme « Comment l'IA générative influence-t-elle la création artistique dans un contexte commercial ? ». L'IA est capable de tenir compte du contexte pour fournir une réponse précise.
Cependant, malgré ces avantages, il y a aussi des inconvénients à utiliser ChatGPT pour la recherche d’information.
- Pas d'actualités : ChatGPT n'a pas la capacité d'accéder à des informations en temps réel. Son contenu est basé sur les données avec lesquelles son "moteur" a été entrainé, et celles-ci ne sont pas constamment mises à jour. Par exemple, si vous demandez « Quelles sont les dernières nouvelles concernant des faits d’actualité ? », ChatGPT ne sera pas en mesure de vous donner des réponses précises ou à jour. Ainsi, pour des informations quotidiennes, Google reste plus pertinent.
- Vérification des sources : ChatGPT n'affiche pas toujours les sources des informations qu'il fournit. Cela peut poser un problème pour les utilisateurs souhaitant vérifier l'exactitude ou l'authenticité des réponses.
- Biais lié au corpus de données utilisées pour l'entrainement de l'IA. Ainsi, si l'on utilise ChatGPT pour rechercher des informations sur des travaux scientifiques, il y a de fortes chances que des informations provenant de publications en Europe, Afrique ou Asie soient ignorées, ChatGPT étant entrainé avec des livres, des articles et des pages web essentiellement en langue anglaise.
PETIT comparatif entre les fonctionnalités de recherche de Google et de ChatGPT :

Vers un changement de comportement des utilisateurs
Avec l'arrivée de ChatGPT et plus largement des LLM, les utilisateurs s'attendent à une nouvelle forme de recherche d'information, plus fluide et conversationnelle.
Ce changement pourrait impacter les moteurs de recherche traditionnels. Si Google reste indispensable pour l'accès à des informations récentes et vérifiables, ChatGPT propose une expérience plus directe et personnalisée.
L'avenir de la recherche d'information semble évoluer vers un modèle hybride où l'intelligence artificielle et les moteurs de recherche traditionnels coexistent, offrant des options adaptées à différents besoins. Tandis que Google pourrait intégrer davantage d'outils IA pour répondre aux attentes des utilisateurs, ChatGPT et des technologies similaires continueront à redéfinir les contours de la recherche d'information pour le pire et le meilleur du web.
- Anmelden oder Registrieren, um Kommentare verfassen zu können
Jacques Vallée : Le visionnaire d'ARPANET, inspirateur de Spielberg et pionnier de l'ufologie

Jacques Vallée, né en 1939 à Pontoise, est une figure incontournable de la culture Geek à la croisée des sciences et des mystères de l’univers. Si son nom est souvent associé à l’étude des phénomènes aériens non identifiés (OVNIs), il est tout aussi important de se rappeler qu'il a joué un rôle fondamental dans la naissance de l'Internet moderne. Ses travaux pionniers sur l'ARPANET, précurseur d’Internet, ont façonné le monde numérique d’aujourd'hui. J'ai eu la chance de rencontrer cet esprit visionnaire au début des années 2010, une rencontre inoubliable avec un homme aux multiples facettes.
Les débuts scientifiques : de la France à la NASA
Jacques Vallée a commencé son parcours scientifique en France, où il obtient une licence en mathématiques à la Sorbonne, suivie d’une maîtrise en astrophysique à l’Université de Lille. Fasciné par les étoiles et les mystères cosmiques, il émigra aux États-Unis dans les années 1960 et rejoint à la NASA en tant qu’astronome. À cette époque, il codéveloppa la première carte informatique de Mars, une prouesse technologique pour l’époque.
Cependant, c'est dans le domaine de l'informatique que Vallée va réellement marquer l'Histoire. Fasciné par les possibilités des systèmes informatiques, il rejoint rapidement le Stanford Research Institute (SRI) en Californie, un centre de recherche à la pointe de l’innovation. Là, il participe à un projet révolutionnaire : l'ARPANET. Il y a croisé Elizabeth "Jake" Feinler, une autre pionnière qui travaillait à section de recherche bibliothèque du SRI.
L'apport visionnaire à ARPANET
Dans les années 1960 et 1970, Vallée devint un acteur clé du développement de l'ARPANET, le premier réseau informatique décentralisé financé par la DARPA (Defense Advanced Research Projects Agency). Ce projet visait à interconnecter des ordinateurs dans différents centres de recherche pour qu'ils puissent partager des informations de manière efficace, une idée visionnaire à l'époque où la communication entre ordinateurs était limitée à des usages locaux.
Jacques Vallée a participé à la conception des premiers systèmes de groupware, permettant aux équipes de recherche dispersées de collaborer en réseau. Ce type de système a jeté les bases des futurs outils de communication en ligne, comme les courriels et les plateformes de travail collaboratif, des innovations qui sont aujourd'hui incontournables dans notre quotidien.
L'ARPANET, lancé en 1969, est devenu la colonne vertébrale de l'Internet, transformant la manière dont les scientifiques collaborent, mais aussi, plus largement, comment l'humanité échange et partage des connaissances à l'échelle mondiale. Jacques Vallée, par son rôle de pionnier dans ce domaine, a contribué à rendre possible cette révolution technologique.
Steven Spielberg : un hommage à Vallée
Mais l'influence de Jacques Vallée ne se limite pas aux domaines scientifiques. En 1977, le réalisateur américain Steven Spielberg, fasciné par les travaux de Vallée sur les OVNIs et sa vision des phénomènes aériens inexpliqués, en fait un modèle pour le personnage de Claude Lacombe dans son film culte Rencontres du troisième type. Ce personnage, joué par François Truffaut, est un ufologue français cherchant à percer les mystères des rencontres extraterrestres. Spielberg a puisé dans les écrits et les réflexions de Vallée pour construire cette figure scientifique empreinte de curiosité et d'ouverture d’esprit.
Une carrière entre science, finance et mystère
Outre son rôle dans la naissance d'Internet, Jacques Vallée s'est également distingué dans le monde de la finance. À partir des années 1980, il devient un investisseur influent dans la Silicon Valley, participant au lancement de nombreuses start-ups spécialisées dans la haute technologie. Il est à l'origine d'investissements majeurs dans plus de 60 entreprises, dont certaines ont marqué leur époque, comme SangStat Medical ou encore Accuray, spécialisé dans la chirurgie robotisée.
Cependant, son intérêt pour les phénomènes inexpliqués restera une constante tout au long de sa carrière. Vallée a longtemps étudié les OVNIs, développant une théorie selon laquelle ces phénomènes pourraient ne pas être d'origine extraterrestre, mais plutôt interdimensionnels, une approche qui a redéfini l'ufologie moderne.
Mon échange avec un esprit visionnaire
J’ai eu l’opportunité de rencontrer Jacques Vallée dans les années 2010. J’ai été frappé par sa capacité à naviguer entre des disciplines aussi diverses que la technologie, la finance, et la recherche sur les OVNIs. Son ouverture d’esprit et sa volonté de toujours repousser les limites de la connaissance en font un véritable modèle. Ses contributions à l’ARPANET ont eu un impact immense sur la société moderne et son influence s'étend bien au-delà du monde scientifique.
Un héritage durable
Aujourd'hui, Jacques Vallée continue d’inspirer à la fois les scientifiques et les amateurs de mystères cosmiques. Son travail sur ARPANET a permis la naissance d’un réseau global qui relie des milliards de personnes à travers le monde, et ses recherches sur les OVNIs restent à la pointe des réflexions sur l’inconnu. Que ce soit à travers son influence sur la culture populaire avec Spielberg ou ses apports visionnaires en informatique, Vallée incarne l'idée que la science et la curiosité sont les moteurs du progrès.
---
Sources :
- The Heart of the Internet, Jacques Vallée [oai_citation:3,Jacques Vallee - The Heart of the Internet : Jacques Vallée : Free Download, Borrow, and Streaming : Internet Archive](https://archive.org/details/JacquesVallee-TheHeartOfTheInternet)
- Institute for the Future [oai_citation:2,IFTF - Jaques Vallée](https://www.iftf.org/people/jaques-vall%C3%A9e/)
- Computer History Museum [oai_citation:1,Scenarios for using the ARPANET at the International Conference on Computer Communication | 102784024 | Computer History Museum](https://www.computerhistory.org/collections/catalog/102784024)
- Anmelden oder Registrieren, um Kommentare verfassen zu können
Keynote Apple 2024 : Nouvelles Innovations et Apple Intelligence

Le dernier grand rendez-vous d’Apple s’est tenu ce lundi 9 septembre 2024, avec Tim Cook lançant la tant attendue keynote 2024. Fidèle à ses habitudes, chaque responsable de produit a présenté les nouveautés développées par la marque à la pomme pour améliorer ses solutions et repousser les limites technologiques.
La nouvelle Apple Watch Series 10, par exemple, se distingue par un écran plus grand et plus lumineux, tout en adoptant un design plus fin. Elle introduit aussi un dos en métal, améliorant ainsi la connectivité, et est accompagnée de watchOS 11, qui exploite le machine learning pour offrir une expérience utilisateur plus intelligente. Un des ajouts notables est la détection de l’apnée du sommeil, un problème souvent méconnu, touchant près de 80% des personnes non diagnostiquées.
Les AirPods 4, quant à eux, ont été révélés avec une autonomie améliorée ainsi qu’un design revu pour offrir un confort optimisé, basé sur une étude approfondie de la morphologie des oreilles. Une version dotée de réduction active du bruit et qui bénéficiera de nouvelles technologies permettant l’isolement de la voix, notamment pour optimiser les appels et les interactions avec Siri. Celle-ci permettra une gestion automatique du volume lorsque vous engagez une conversation avec quelqu'un, sans interruption du son. Pas de grand changement pour les AirPods Max qui reçoivent un port USB-C et des nouveaux coloris. Les AirPods Pro 2, pour leur part, intègrent des fonctionnalités d’aide auditive pour les personnes souffrant de problèmes auditifs renforçant ainsi l’accessibilité pour tous.
Cependant, c’est du côté des iPhones que l’innovation d’Apple fait particulièrement parler d’elle cette année. L’iPhone 16 et l’iPhone 16 Plus se démarquent par l’introduction du bouton Action, permettant de personnaliser diverses fonctions comme les contrôles de l’appareil photo. Les iPhone 16 Pro et 16 Pro Max, avec leurs écrans plus grands et leurs finitions en titane, offrent des performances graphiques améliorées. L'appareil photo principal de 48 Mpx permet de filmer en 4K à 120 images par seconde, offrant une qualité vidéo exceptionnelle.
Mais la grande nouveauté de cette année réside dans l’intégration de l’intelligence artificielle, baptisée « Apple Intelligence » que la firme avait dévoilée lors de l'Apple Worldwide Developers Conference (WWDC) en juin dernier.
Tim Cook a souligné que les iPhone 16, 16 Plus, 16 Pro et 16 Pro Max, équipés de la puce A18, sont les premiers smartphones « conçus pour l’intelligence artificielle ». Cette puce, optimisée pour améliorer les performances et intégrer l'IA, promet de transformer l'utilisation des iPhones avec de nouvelles fonctionnalités novatrices comme des outils d’écritures, des résumés de Mail, une version améliorée de Siri ainsi qu’un outil pour éditer les photos.
Tous ces nouveaux produits seront disponibles dès la fin septembre, bien que la sortie de certaines "features" en France puisse être retardée en raison des nouvelles législations européennes, telles que le Digital Markets Act (DMA) qui vise à garantir une concurrence loyale sur les marchés numériques en régulant les grandes entreprises et le Digital Services Act (DSA) qui se concentre sur la sécurité en ligne et la protection des droits des utilisateurs. Ces deux régulations qui imposent des contraintes sur la protection des données et la transparence, pourrait affecter la disponibilité immédiate de certaines fonctionnalités d'Apple Intelligence en Europe.
L'une des grandes questions soulevées après la WWDC concernait la confidentialité des données. Bien que la concurrence dans le domaine de l’IA soit féroce, notamment face à Google et son modèle Gemini, Apple maintient sa philosophie : privilégier l’expérience utilisateur en se concentrant sur des fonctionnalités utiles au quotidien. Cette unicité, Apple la confirme en utilisant habilement l’acronyme « AI » , qui signifie ici, « Apple Intelligence ».
Là où Google adopte une approche plus globale avec son IA, Apple se distingue par son écosystème fermé et son engagement fort envers la protection des données de ses utilisateurs.
Apple ne cherche pas nécessairement à dominer la course à l’intelligence artificielle en développant des modèles surpuissants, mais à offrir des outils bien adaptés à ses produits. Cette stratégie, combinée à son partenariat avec OpenAI, permet à la firme de Cupertino de rester compétitive tout en répondant aux attentes élevées de sa communauté.
Cette constance dans l'amélioration de ses produits, année après année, témoigne de sa maîtrise du marketing. Chaque mise à jour, aussi minime soit-elle, est transformée en événement incontournable. Que ce soit un nouveau coloris, un écran légèrement plus grand ou l’intégration subtile de l’intelligence artificielle, chaque détail est pensé pour capter l’attention et stimuler le désir d’achat. C'est là que réside le véritable génie d’Apple : Rendre indispensable ce qui peut être facultatif, en créant une expérience utilisateur toujours plus riche et aboutie.
- Anmelden oder Registrieren, um Kommentare verfassen zu können
Femme de la tech : Elizabeth Feinler

L'espace en ligne où nous communiquons avec nos familles et amis, collaborons avec nos collègues et restons informés a été construit et dirigé avec l'aide de nombreuses femmes. L'une de ces femmes était Elizabeth "Jake" Feinler. Née en 1931 en Virginie, Elizabeth J. Feinler a suivi des études de biochimie mais c'est dans l'informatique qu'elle a fait carrière.
En 1960 elle rejoint l'institut de recherche de Stanford ou elle dirige la section de recherche de la bibliothèque.
Le réseau Advanced Research Projects Agency Network (DARPA) a été créé à la fin des années 1960 dans le cadre du Département de la Défense des États-Unis, dans le but de créer un réseau décentralisé d'ordinateurs connectés par lignes téléphoniques. Bien que son origine soit militaire, ARPANET a été principalement utilisé pour partager et développer la recherche, en grande partie grâce à la direction de Joseph Carl Licklider au sein du bureau de traitement de l'information de l'ARPA entre 1962 et 1964.
A cet époque, les réseaux limités tentait de se connecter entre eux mais ils étaient souvent incompatibles. En 1967, Robert Taylor, alors directeur de l'IPTO, proposa un protocole commun qui permettrait la communication entre des réseaux plus larges. Lui et ses collègues voyaient ces réseaux non seulement comme un atout pour la recherche, mais aussi comme un avantage social.
En 1968, Taylor et Licklider publièrent "L'ordinateur comme dispositif de communication", annonçant cette intention. Comme prévu, ARPANET s'est transformé naturellement en un lieu de discussions professionnelles, le réseau s'étendant progressivement d'un océan à l'autre, et même jusqu'à Hawaï. On peut voir la vision de Licklider et Taylor illustrée dans les cartes logiques d'ARPANET de 1969, 1971 et 1977, montrant l'expansion des connexions entre de nombreuses institutions de recherche, notamment le MIT, l'université Stanford, Xerox PARC et le Pentagone.
En 1969, alors que le réseau commençait à s'étendre, Elizabeth "Jake" Feinler travaillait pour la section de recherche bibliothèque de l'institut de recherche de Stanford (SRI), l'une des premières institutions à rejoindre le projet ARPANET.
Elle dirigera cette section à partir de 1972 et sera embauché par Doug Engelbart pour rejoindre un centre de recherche soutenu par la DARPA.
Embauchée pour spécifiquement pour travailler au Centre d'information du réseau ARPANET, le NIC (Network Information Center), première mission était de créer un manuel de ressources, quelque chose de tangible à partager lors d'une conférence.
Petit à petit son rôle va se développer, son travail étant considéré comme un investissement important pour la communauté. En tant que rédactrice en chef du manuel de ressources ARPANET, Feinler deviendra une experte en la matière.
Son équipe va définir les premiers protocoles de l'internet pour notamment accéder à l'annuaire en ligne (qui sera le WHOIS).
Elle a compilé et rédigé de la documentation pour aider les utilisateurs à accéder et à utiliser l'ARPANET, a maintenu un annuaire du réseau d'ordinateurs en pleine expansion, et a développé et documenté des normes pour son utilisation. Pendant un certain temps, elle et son équipe ont géré la hotline téléphonique 24h/24 et 7j/7 pour aider les utilisateurs.
Elizabeth Feinler a continué à progresser dans sa carrière au sein du SRI, dirigeant finalement une équipe de plus de 40 employés soutenue par un financement de 11 Millions de dollars.
Son travail méticuleux a bénéficié aux chercheurs à travers le pays, leur permettant de collaborer, d'expérimenter avec les réseaux et de développer des relations collégiales.
Feinler est restée chez SRI jusqu'à sa retraite en 1989, peu avant la mise hors service d'ARPANET.
Cependant, le réseau mondial qu'elle a contribué à maintenir et à enrichir pour un public de plus en plus large est devenu l'épine dorsale de notre internet moderne. En fait, les noms de domaine de premier niveau que nous connaissons si bien aujourd'hui—.com, .gov, .org, .net et .edu—sont tous le fruit de son travail et de son équipe qui les a proposé à la communauté.
Avec le temps, le NIC qu'elle dirigea deviendra l'autorité de nommage des domaines de haut niveau, l'ancêtre de l'ICANN.
Elizabeth Feinler terminera sa carrière à la NASA ou elle contribua à la mise en réseau des télescopes de l'agence.
Son héritage reste vivant. Elle appartient à une génération de chercheurs passionnés qui, de la fin des années 60 et courant des années 70 ont par leurs efforts structuré l'Internet que nous utilisons aujourd'hui. Sa contribution reste importante, en particulier dans la transition vers le système de nommage des domaines (DNS) et l'origine des domaines de premier niveau (TLD).
- Anmelden oder Registrieren, um Kommentare verfassen zu können
De RSS à Reddit : L'héritage numérique d'Aaron Swartz

Aaron Hillel Swartz, né le 8 novembre 1986 aux États-Unis, est devenu une figure emblématique du monde numérique à travers son rôle d’hacktiviste et ses multiples contributions qui ont transformé l'Internet moderne. Dès son plus jeune âge, Swartz s'est révélé être un prodige de l'informatique, développant des projets novateurs qui reflétaient son engagement pour un Internet libre et ouvert. Avant même l'apparition de Wikipédia en 2001, Aaron avait déjà créé une interface qui ressemblait à un pseudo-Wikipédia, démontrant ainsi son intérêt précoce pour la conception d'outils facilitant le partage des connaissances.
Peu de temps après, Aaron a contribué à la création du flux RSS (Really Simple Syndication), une technologie qui a révolutionné la manière dont l'information est diffusée et "consommée" sur Internet. Les flux RSS permettent aux utilisateurs de regrouper des contenus de différents sites web en un seul endroit, facilitant ainsi l'accès à l'information. Cette innovation est rapidement devenue une pierre angulaire des hypertextes modernes, transformant la consommation de contenu en ligne.
En parallèle, Aaron s'impliqua dans la création de Creative Commons par le biais de Lawrence Lessig, l’un des fondateurs de l’association. Celle-ci représente un ensemble de licences permettant aux auteurs de partager légalement leurs œuvres avec le public tout en conservant certains droits. Ces licences ont joué un rôle crucial dans la promotion de la culture libre et du partage de connaissance par Internet, tout en offrant un moyen de rémunérer les auteurs. Par exemple, en France, la SACEM (Société des Auteurs, Compositeurs et Éditeurs de Musique) permet aux auteurs de percevoir des droits d'auteur pour l'utilisation de leurs œuvres, tout en utilisant des licences Creative Commons pour définir les conditions sous lesquelles ces œuvres peuvent être partagées.
Swartz est également l'un des cofondateurs de Reddit, une plateforme de partage de liens et de discussions qui est devenue l'un des sites les plus populaires du web. Cependant, malgré le succès de Reddit, Aaron n'a jamais été à l'aise avec la culture d'entreprise et a rapidement quitté le projet après son acquisition par le groupe d’éditions Condé Nast.
Par la suite, Aaron Swartz a commencé alors à s'impliquer de plus en plus dans des causes politiques et sociales, utilisant ses compétences pour promouvoir l'accès libre à l'information. Inspiré par Tim Berners-Lee, l'inventeur du World Wide Web, Swartz a toujours cru fermement en un Internet qui soit un outil de partage d'informations accessible à tous.
En 2008, Swartz a lancé Open Library, un projet visant à créer une page web unique regroupant tous les livres existants, avec des options pour les acheter, les emprunter ou les louer. L'idée était de créer une bibliothèque numérique universelle qui offrirait un accès facile à l'ensemble de la littérature mondiale.
C'est également à cette période que Swartz s'est s'intéressé à PACER (Public Access to Court Electronic Records), un service d'accès public aux documents des tribunaux fédéraux américains. À l'époque, PACER était critiqué pour être obsolète, difficile à utiliser et coûteux, bien que les documents qu'il proposait appartenaient au domaine public. Pour contrer ces restrictions, Swartz s'est associé au projet RECAP, qui visait à rendre ces documents accessibles gratuitement en ligne. Utilisant un script pour télécharger des millions de pages de documents de PACER, Aaron a réussi à rendre publics environ 2,7 millions de documents judiciaires fédéraux, s'attirant ainsi l'attention du FBI qui mis en place une surveillance en installant des caméras sur le lieu où il effectuait ces téléchargements. Bien qu'aucun crime n'ait pu lui être reproché à l'époque, ses actions ont conduit à une révision des politiques de PACER.
Le 19 juillet 2011, Aaron Swartz a été accusé d’avoir téléchargé près de 4,8 millions d’articles de JSTOR (base de données de recherches universitaires), soit presque tout le contenu, sans pour autant les avoir publiés à l’inverse de ce qui c’était produit avec PACER.
Malgré la restitution des disques durs et la promesse de ne pas diffuser ces documents, la procureure Carmen Ortiz a engagé des poursuites pour fraude électronique alors même que JSTOR avait retiré ses accusations. Aaron Swartz était menacé de 35 ans de prison et d'une amende d'un million de dollars.
Cette affaire a mis en lumière les lacunes de la Computer Fraud and Abuse Act (CFAA) de 1986, critiquée pour sa formulation vague et son application excessive. La CFAA est une loi fédérale américaine sur la sécurité des systèmes d'information, principalement sur les fraudes.
Elle permet de poursuivre des actions jugées non autorisées sur des systèmes informatiques, même sans dommages directs. Aaron Swartz s'est suicidé le 11 janvier 2013 à l'âge de 26 ans dans son appartement. Son procès en lien avec des accusations de fraude électronique devait débuter le mois suivant.
Suite à son décès, l'Aaron's Law Act est proposé pour réformer la CFAA, clarifiant les violations qualifiées de criminelles et limitant les peines pour des infractions mineures afin d'éviter des poursuites excessives.
L'héritage d'Aaron Swartz continue d'inspirer ceux qui militent pour un Internet libre, accessible et juste pour tous.
Sources :
YouTube : The Internet's Own Boy: The Story of Aaron Swartz
Wikipedia : https://en.wikipedia.org/wiki/Aaron_Swartz
- Anmelden oder Registrieren, um Kommentare verfassen zu können
Décoder les Langages Animaux : Quand l'Intelligence Artificielle Écoute la Nature

Il y a quelques jours, alors que mon chien s'approchait de moi comme il le fait souvent lorsqu'il cherche à exprimer un besoin, je me suis une fois de plus interrogé : avait-il faim ? Voulait-il sortir ? Ou souhaitait-il simplement jouer ? Après plus de dix ans passés à ses côtés, je me retrouve encore parfois incapable de deviner ses intentions. Mais pourquoi deviner, lorsque l'on pourrait communiquer directement avec lui ?
C'est cette réflexion qui m'a poussé à explorer les capacités de l'intelligence artificielle, cet outil révolutionnaire qui transforme déjà tant d'aspects de notre société, pour tenter de percer les mystères de la communication animale. Dans cet article, nous allons découvrir comment les animaux interagissent entre eux, en quoi l'IA peut nous aider à les comprendre, ainsi que les défis et les limites que cette technologie impose.
I. La communication animale
Les animaux communiquent de manière bien plus complexe qu'on ne le pense. Chaque espèce utilise un ensemble de signaux propres, incluant les sons, les mouvements et les signaux chimiques. Cette diversité montre que la communication animale est un domaine d'une grande richesse et complexité.
Parmi les formes les plus fascinantes de communication animale figurent les chants des baleines, notamment ceux des baleines à bosse. Ces cétacés produisent des séquences sonores élaborées pouvant durer de quelques minutes à plusieurs heures. Chaque chant est composé de motifs répétés et semble varier selon les populations, ce qui laisse supposer l'existence de sortes de dialectes. Les scientifiques estiment que ces chants jouent un rôle essentiel dans la reproduction, en attirant les partenaires, ainsi que dans la coordination des mouvements au sein des groupes. Cependant, la complexité de ces chants reste en grande partie mystérieuse, et de nombreuses variations et rythmes échappent encore à notre compréhension.
Historiquement, les chercheurs ont rencontré de nombreuses difficultés pour décoder la communication des baleines et d'autres animaux. Les méthodes traditionnelles, fondées sur l'observation directe et l'enregistrement des sons, sont limitées par notre capacité à détecter et interpréter les signaux de manière fiable. La variabilité des chants, leur évolution au fil du temps, ainsi que les contextes spécifiques dans lesquels ils sont produits, compliquent encore l'analyse. De plus, les longues périodes d'observation requises et les technologies coûteuses nécessaires pour capter ces sons en milieu naturel ont freiné les avancées dans ce domaine. Ces contraintes illustrent combien il est difficile de percer les secrets de la communication animale sans recourir à des technologies avancées.
II. L'intelligence artificielle au service de la compréhension du langage animal
Une découverte fascinante dans l'étude des langages animaux est l'observation que certaines espèces, comme les grands dauphins, les orques et les baleines à bosse, suivent la loi de Zipf. Cette loi, observée dans de nombreuses langues humaines, stipule que la fréquence d'un mot est inversement proportionnelle à son rang dans la liste des mots les plus utilisés. Autrement dit, quelques mots sont utilisés très fréquemment, tandis que la majorité des autres mots sont beaucoup plus rares. Cela suggère une structure linguistique complexe, comparable à celle des langues humaines, ce qui a des implications profondes pour notre compréhension de la communication animale.
En 2017, une avancée notable dans le domaine de l'intelligence artificielle a été réalisée lorsque des chercheurs ont réussi à traduire une langue en une autre sans connaître les langues en question. Cette réussite a été rendue possible grâce à une méthode appelée "embedding", où l'intelligence artificielle transforme les relations sémantiques en relations géométriques dans un espace à plusieurs dimensions. Cela permet de représenter tous les concepts d'une langue de manière spatiale, où des opérations mathématiques simples, telles que "monnaie + Europe = Euro", peuvent être effectuées. Ces techniques pourraient potentiellement être appliquées pour décoder les langages animaux, en établissant des correspondances entre les mots en fonction de leur position dans cet espace sémantique.
Un projet particulièrement innovant, le Earth Species Project, vise à accélérer la compréhension des langages animaux en finançant des chercheurs en échange du partage de leurs données. Ces données sont ensuite utilisées pour entraîner de grands modèles de langage dont l'objectif est de décoder les communications animales. Ce projet pourrait transformer notre approche de l'étude des animaux, en utilisant la puissance de l'intelligence artificielle pour comprendre et peut-être même interagir avec eux d'une manière qui, jusqu'à présent, relevait de l'imaginaire.
III. Les défis et limites de l'utilisation de l'intelligence artificielle
L'un des principaux défis pour entraîner un grand modèle de langage dans des projets comme le Earth Species Project réside dans la collecte et la qualité des données. Pour qu'un tel modèle puisse décoder la communication animale, il a besoin d'une quantité massive de données de haute qualité. Or, obtenir ces enregistrements est extrêmement difficile. Les communications animales se déroulent souvent dans des environnements bruyants, où les enregistrements peuvent être contaminés par des bruits ambiants ou par des sons émis par d'autres animaux. Ces interférences rendent la tâche d'isoler les vocalisations pertinentes complexe, entraînant souvent l'élimination de la plupart des enregistrements.
Pour surmonter ces obstacles, des initiatives telles que BioCPPnet sont en cours de développement. BioCPPnet est un projet innovant qui vise à isoler les sons animaux en utilisant des techniques avancées de traitement du signal et d'intelligence artificielle. L'objectif est de filtrer les bruits indésirables et de capturer les vocalisations des animaux de manière claire et distincte. Cette technologie pourrait jouer un rôle crucial dans la création de bases de données propres et exploitables pour entraîner des modèles de langage, augmentant ainsi la précision et l'efficacité des analyses de la communication animale.
Il est fascinant de constater combien l'intelligence artificielle pourrait bouleverser notre perception et notre compréhension des animaux. Un jour, l'expression de mon chien, qui me reste parfois mystérieuse, pourrait être décryptée avec précision grâce aux progrès technologiques.
L'IA représente un formidable outil pour déchiffrer les langages animaux et répondre avec plus d'acuité à leurs besoins. Cependant, à l'instar de toute technologie, son utilisation dans ce domaine soulève des défis et des limites qu'il est impératif de surmonter avant d'envisager une communication véritablement fluide avec les animaux.
Les recherches basées sur ces technologies pourraient également engendrer des conséquences imprévues sur certaines espèces, notamment si elles perturbent leur habitat naturel ou leurs comportements. Il est donc crucial, tout en explorant les potentialités offertes par l'IA, de rester vigilants quant à la protection de la biodiversité et de veiller à ce que notre quête de compréhension ne nuise pas aux êtres vivants que nous souhaitons préserver.
- Anmelden oder Registrieren, um Kommentare verfassen zu können
Tags
John Draper, l'Homme Derrière la Naissance du Hacking et ses Ombres Éthiques

John Draper, alias "Captain Crunch," est une figure controversée parmi les premiers hackers et phreakers des années 1970.
Son surnom provient d’un sifflet trouvé dans les boîtes de céréales Cap'n Crunch, qui, une fois modifié, permettait de produire une tonalité spécifique de 2600 Hz utilisée par les systèmes de télécommunication d'AT&T.
Draper découvrit que cette tonalité pouvait manipuler les réseaux téléphoniques, permettant ainsi de passer des appels longue distance sans frais. Cette découverte a marqué le début de la pratique connue sous le nom de phreaking.
Les phreakers étaient souvent des passionnés de technologie fascinés par les secrets des systèmes de télécommunication. Ils exploitaient des failles dans les réseaux téléphoniques en utilisant des dispositifs comme les "blue boxes", qui reproduisaient les tonalités nécessaires pour manipuler les lignes téléphoniques. Draper, aux côtés d'autres phreakers, a exploré ces systèmes à une époque où l'accès aux ordinateurs était réservé aux universités et grandes entreprises.
Draper est également reconnu pour son influence sur les pionniers de l'informatique. Steve Jobs et Steve Wozniak, les fondateurs d'Apple, se sont inspirés de ses exploits et ont même fabriqué et vendu leurs propres "blue boxes" avant de créer l'Apple I. Cependant, cette admiration cache une réalité plus trouble : les activités de Draper et des phreakers sont également connues comme étant les premières formes de hacking à des fins financières. Ces activités soulèvent des questions éthiques, notamment en ce qui concerne l'usage illégal des infrastructures téléphoniques.
Dans les années 1970, la communauté des phreakers a joué un rôle dans la transition du piratage des réseaux téléphoniques vers les systèmes informatiques. Les premiers virus, comme le "Creeper", étaient certes des curiosités, mais ils annonçaient les défis que les hackers allaient poser aux systèmes informatiques.
Contrairement à la perception romantique qu'il entretenait, Draper ne voyait pas le hacking comme une simple activité illégale, mais plutôt comme un moyen de repousser les limites de la technologie. Toutefois, cette vision a parfois mené à des abus, exploitant des méthodes comme les "loop around numbers" et les "mute boxes" pour contourner les systèmes de facturation, révélant une approche souvent problématique du respect des lois.
L'histoire de Draper inclut également sa contribution à la création des premiers modems personnels, tels que le Hayes Smartmodem 1200, qui ont démocratisé l'accès aux ordinateurs et aux systèmes de communication. Ce développement a contribué à l'essor des Bulletin Board Systems (BBS), qui permettaient aux utilisateurs de se connecter via un modem pour échanger des messages et des fichiers, posant les bases de l'internet moderne. Cependant, l'accès ouvert à ces technologies a également ouvert la porte à des abus et à une culture de piratage qui reste controversée.
Malgré son rôle de pionnier, l'héritage de John Draper est entaché par des actions qui dépassaient souvent les limites de l'éthique. Il incarne à la fois l'ingéniosité qui a conduit à de nombreuses innovations et les dérives d'une culture du hacking qui a parfois ignoré les conséquences légales et morales de ses actes. Aujourd'hui, Draper reste une figure emblématique de la culture hacker, mais son histoire soulève autant d'admiration que de critiques sur les limites du hacking et les responsabilités qui l’accompagnent.
https://search-guard.com/blog/john-draper-captain-crunch/
https://privacy-pc.com/articles/history-of-hacking-john-captain-crunch-drapers-perspective.html
- Anmelden oder Registrieren, um Kommentare verfassen zu können
Tags
Femme de la tech : Susan Wojcicki

Le 9 août 2024, nous apprenions la disparition de Susan Wojcicki, Dirigeante Américaine, connue pour avoir louée son garage aux fondateurs de Google (ce sera le premier local de l'entreprise). Les Dirigeants de la Silicon Valley lui ont rendu un hommage unanime. Ils peuvent, car c'était une pionnière.
Embauchée en 1999 par Google alors qu'elle végétait chez Intel, elle fait partie des tous premiers salariés et prendra en charge le marketing. Elle deviendra Vice présidente Senior et sera Directrice Générale de Youtube de 2014 à 2023.
Susan Wijcicki ne vient pas de nulle part, tout comme ses sœurs, dont la cadette épousera Sergey Brin, cofondateur de Google et cofondera la société 23andMe. Sa troisième sœur Janet est titulaire d'un doctorat en anthropologie et en épidémiologie.
Susan Wojcicki est née le 5 juillet 1968 à Santa Clara (Californie). Ses parents, Esther et Stanley Wojcicki, d'origines russo-juive (Esther Wojcicki) et américano-polonaise (Stanley Wojcicki), sont enseignants. Ils s'établissent dans le comté de Santa Clara lorsque son père intègre comme professeur le département de physique de l'université Stanford.
Sa mère, en avance sur son temps a créé le programme de journalisme du lycée Palo Alto en 1984 et défendu « l’apprentissage par la pratique », comme elle le disait. « L’enseignant doit être un facilitateur,, un coach, pas un conférencier ». Elle encouragea ses filles à aller à la bibliothèque et défendu l'enseignement par la pratique.
« L'idée n'était pas d'attendre que le professeur vous explique quelque chose si vous ne le comprenez pas, mais de voir si vous l'apprenez par vous-même », se souvient leur mère.
Son père était un physicien de renom qui a enseigné à Stanford et qui a dirigé une expérience visant à remettre en question les théories d’Einstein.
Dans les années 1990, lorsque le boom technologique a transformé la Silicon Valley et le monde, les Wojcicki ont été l'une des premières familles de la ville à se doter d'un ordinateur, un Mac. Et les parents ont orienté leurs filles vers Internet.
Susan grandira dans ce milieu savant, curieux de tout et intellectuellement stimulant.
Elle étudia d'abord l'histoire et la littérature à l'université Harvard, d'où elle sortit diplômée en 1990, puis poursuivit ses études à l'université de Californie à Santa Cruz, où elle a obtenu une maîtrise en économie.
Elle intègrera ensuite la Anderson School of Management, l'école de commerce de UCLA, qui lui remet une maîtrise en administration des affaires (MBA) en 19981. Elle travaille ensuite pour MagicQuest, un éditeur de logiciels éducatifs, puis elle décide de faire carrière dans le milieu de la technologie.
Lorsqu'elle est embauchée par Google alors qu'elle loue son garage (par l'intermédiaire d'une copine d'un des fondateurs), elle quittera Intel pour faire partie des premiers salariés de l'entreprise. Elle participe à la diffusion du moteur de recherche de Google en démarchant les universités et les entreprises pour qu'elles intègrent la barre de recherche dans leurs sites.
Susan Wojcicki participera au lancement des services Google Images et Google Livres. Elle est à l'origine du programme AdSense, lancé en 2003, qui permet à Google d'afficher des liens publicitaires sur les sites affiliés.
En 2010, Adsense deviendra la deuxième source de revenu de l'entreprise. En 2006, elle dirige le service Google Vidéos. Estimant que Google ne peut refaire son retard sur le site d’hébergement de vidéos YouTube, elle proposera à son conseil d'administration de racheter la start-up. Pari gagnant.
Susan Wojcicki restera une des proches conseillers de Larry Page (CEO). Vice-présidente, chargée de la gestion de produits, elle est promue en 2010 au rang de vice-présidente senior.
À partir d'avril 2011, elle dirigea tout le secteur publicité de Google. En 2014, elle remplace Salar Kamangar à la tête de YouTube.
Elle quitte l'entreprise le 16 février 2023 et décède le 9 août 2024 après avoir lutté deux ans contre un cancer du poumon.
Toujours curieuse, femme discrète, négociatrice, présente dès le début de l'aventure, elle a joué un rôle majeur dans le développement de Google.
Elle regrettait publiquement qu'on n'enseigna pas suffisamment aux enfants à s'exprimer clairement en public. « Comment présenter une idée ? Comment amener les gens à croire en vous ? Comment diriger les autres ? Comment réfléchir à une idée qui n'existe pas encore et convaincre les gens qu'ils en ont besoin ? Lorsque nous avons lancé Google, nous devions faire cela. »
Et elle y est parvenu.
- Anmelden oder Registrieren, um Kommentare verfassen zu können
Tags
Incident CrowdStrike - Causes et enseignements

Maintenant que le soufflet est retombé, prenons un peu de recul sur l'incident CrowdStrike qui a affecté 8,5 millions de machines le 19 juillet 2024. Pour mémoire, le déploiement de la mise à jour défectueuse n'a duré que 79 minutes ... qui vont certainement coûter très cher !
Avant toute chose, ce que l'on peut noter c'est que les professionnels et les bonnes volontés qui ont été mobilisés pour répondre à l'incident n'ont pas failli à leur tâche. Mais comment expliquer cette ampleur ? Ce que l'on sait, c'est que la panne mondiale du 19 juillet dernier est le résultat d'une mise à jour.
La mise à jour en question impliquait un fichier de configuration connu sous le nom de Channel File 291, conçu pour cibler de nouveaux pipes utilisés par les 2C (command & Control) des attaquants. Cette mise à jour semble avoir été “malformée", en tout cas, elle est passée à travers les vérifications d'usage et a déclenché une erreur logique dans le pilote de CrowdStrike, ce qui a provoqué le tant redouté écran bleu de la mort sur les systèmes Windows touchés.
CrowdStrike a rapidement identifié le problème et déployé un correctif en quelques heures, fourni des conseils techniques détaillés, y compris des étapes de mitigation et des outils pour identifier les hôtes impactés.
Le terme correctif doit être pris avec des pincettes car il s'agit d'une correction de la mise à jour défectueuse, pas des machines en pannes. Pour les 8,5 millions de Pc touchés, ce sont les admins, les responsables IT, etc qui ont réparé chaque système en les redémarrant en mode sans échec, puis trouvé le fichier de mise à jour corrompue Channel 291 dans le dossier CrowdStrike pour le supprimer et redémarrer.
Pour comprendre pourquoi et comment une mise à jour défectueuse peut provoquer un tel crash, il faut d'abord distinguer les notions de mode utilisateur et de mode noyau dans Windows :
Le système d'exploitation de Windows utilise un système d'anneaux pour séparer le code en deux zones distinctes : le mode noyau pour le système d'exploitation lui-même et le mode utilisateur où les applications s'exécutent.
Le mode noyau effectue des tâches telles que la communication avec le matériel et les périphériques, la gestion de la mémoire, la planification des threads, et toutes les fonctions essentielles que le système d'exploitation fournit.
En théorie, le code des applications ne s'exécute jamais dans le noyau et le code noyau ne s'exécute jamais en mode utilisateur. Le mode noyau est plus privilégié, ce qui signifie qu'il peut voir toute la carte mémoire du système et ce qui s'y trouve sur n'importe quelle page physique et à tout moment. En mode utilisateur vous ne voyez que les pages de la carte mémoire que le noyau vous laisse voir.
Si une application a besoin d'un service fourni par le noyau, elle ne sera pas autorisée à s'exécuter directement dans le noyau. L'application "demande" au noyau (par le biais d'un thread) et attend la réponse. Un thread côté noyau examinera alors les arguments spécifiés, validera tout et exécutera le code noyau requis. Une fois terminé, le thread noyau renverra les résultats au thread utilisateur.
En cas de dysfonctionnement en mode utilisateur et noyau, la différence de traitement saute au yeux. Lorsqu'un code d'application plante, l'application plante et l'on a un message d'erreur. Lorsque du code dans le noyau plante, le système entier plante. Il crash parce qu'il le doit, pour se protéger. Par exemple si le noyau détecte qu'il est sur le point de libérer de la mémoire qui a déjà été libérée, il va interpréter cette anomalie comme une défaillance critique (c'est une condition inattendue) et Windows va afficher un écran bleu, parce que s'il laisse le code s'exécuter, les conséquences peuvent être pires pour l'OS et les fichiers enregistrés sur la machine (dont ceux des utilisateurs).
Ce n'est pas un mécanisme spécifique à Windows. C'est valable pour tous les systèmes d'exploitation comme Linux et macOS aussi. Cependant MacOS plante moins et l'écran est... rose, on voit pourquoi un peu plus loin.
Peu de choses s'exécutent dans le noyau. Les seules choses qui vont "en théorie" dans le noyau sont celles qui doivent l'être, comme le planificateur de threads et le gestionnaire de tâches, et les fonctionnalités qui doivent accéder au matériel, comme un pilote de périphérique qui parle à un processeur graphique. Ainsi, la totalité de ce qui est exécuté en mode noyau se résume vraiment au système d'exploitation lui-même et aux pilotes de périphériques, en théorie.
L'EDR Falcon de Crowdstrike est une (bonne) solution de sécurité avancée qui contrairement à un antivirus classique ne va pas simplement chercher des définitions de fichiers. La solution de CrowdStrike analyse un large éventail de comportements d'applications pour essayer de détecter de manière proactive de nouvelles menaces avant qu'elles ne soient catégorisées et répertoriées.
Et pour être capable de surveiller le comportement des applications à partir d'un emplacement sûr, une partie du code de l'EDR est dans le noyau.
CrowdStrike a donc écrit un pilote de périphérique même s'il n'y a pas vraiment d'interaction avec un périphérique matériel. Ce bout de code a un accès complet et sans restriction aux structures de données du système et aux services dont il a besoin pour s'exécuter.
Microsoft propose la certification WHQL (Windows Hardware Quality Labs) aux éditeurs, de sorte que les pilotes certifiés WHQL sont signés avec un certificat numérique car considérés robustes et fiables. Tant que le pilote lui-même ne change jamais, le certificat reste valable.
En théorie toujours, à chaque fois qu'une nouvelle menace se présente un éditeur devrait réécrire le pilote et repasser la certification, ce qui implique des délais. Ce n'est pas acceptable pour une solution de sécurité qui doit être maintenue à jour en temps réel pour offrir la protection la plus haute à ses clients.
Pour contourner ces délais, CrowdStrike peut inclure des fichiers de définition qui sont traités par le pilote mais non réellement inclus avec lui. C'est ce qui a été envoyé dans la mise à jour.
Ainsi, lorsque le pilote CrowdStrike est sollicité, il accède à un dossier sur la machine à la recherche de ces fichiers de définition dynamique pour exécuter son code, comme par exemple le fichier Channel File 291 récupéré par 8,5M de Pc le 19 juillet dernier. Le contenu de ces fichiers n'est pas connu mais il est récupéré dans le cadre de l'exécution du pilote dans le noyau Windows. C'est là que se pose problème.
La cause précise du bug, n'a pas été révélée. Est-ce que ce fichier contient des bouts de code, des variables qui vont ensuite s’exécuter dans le noyau ? En revanche, on peut s'interroger sur la manière dont le pilote Crowdstrike gère et traite les mises à jour, comment les arguments qui sont passés dans le noyau sont vérifiés en amont.
On peut aussi tout autant s'interroger sur le fait que Windows n'est pas résilient en cas d'échec de chargement d'un pilote. Pourquoi ne pas essayer de démarrer sans lui la prochaine fois ?
En fait, Windows propose un certain nombre d'options comme par exemple démarrer avec la dernière configuration valide connue. Cependant, le problème est que le pilote CrowdStrike est un pilote de démarrage, s’exécutant en mode noyau. En d'autres termes, il doit être installé pour démarrer le système d'exploitation... c'est le piège.
La plupart des pilotes de démarrage sont inclus dans les packages de pilotes qui sont fournis avec Windows, et l'OS les installe automatiquement.
L'opération de remédiation dans le cas Crowdstrike n'est pas complexe mais nécessite un accès physique à la machine (l'opération est bien décrite sur l'internet) pour la redémarrer en mode sans échec, uniquement avec le nombre minimal de pilotes Windows requis pour le système fonctionne.
De précédents problèmes de mise à jour avec Linux :
En avril 2024 une mise à jour CrowdStrike avait déjà affecté les clients utilisant la distribution Debian de Linux. La mise à jour a provoqué le plantage de ces systèmes et les a empêchés de redémarrer normalement. Le problème a été reconnu par CrowdStrike le lendemain, mais il a fallu des semaines pour déterminer la cause exacte et mettre en œuvre un correctif.
Un autre problème similaire est survenu un mois plus tard, le 13 mai, cette fois affectant la distribution Rocky Linux. Ces serveurs ont connu des blocages après la mise à jour vers Rocky Linux 9.4. Ce qui s’est passé était prévisibles, sauf qu'aujourd'hui personne ne fait le malin en déclarant qu'il avait prévenu tout le monde.
Tiens, Apple est absent de la liste :
Curieusement, les machines Apple sont absentes de la liste, pourtant Crowdstrike fournit des solutions de sécurité pour Mac OS via sa plateforme Falcon Plus. Pourquoi ? Falcon pour Mac OS n'installe pas d'extensions de noyau comme c'est le cas sur Windows.
Apple a complètement abandonné l'utilisation des extensions de noyau, obligeant les éditeurs de solution de sécurité à utiliser les extension systèmes fournies par la marque à la pomme. En d'autres termes Crowdstrike n'a pas le choix, l'accès au noyau de Mac OS n'est pas permis. De plus, aucune institution, aucun gendarme de la concurrence n’a obligé Apple à ouvrir son OS qui par définition est un écosystème fermé.
Microsoft responsable ou pas ?
Pas vraiment. Chez Microsoft comme chez CrowdStrike on est bien conscient des risques lorsqu'on exécute du code en mode noyau. Le noyau du système d'exploitation c'est son cœur, le niveau le plus bas et élémentaire.
Une des principales fonction du noyau d’un OS est d’effectuer l’interaction entre les programmes, l’utilisateur et le matériel. Le matériel d'un Pc fonctionne en général à partir de pilotes (drivers) qu’un fabriquant peut fournir.
On peut se demander pourquoi Microsoft a autorisé CrowdStrike à exécuter du code au sein du noyau. Cette solution nécessite-t-elle une intégration profonde à ce point ? Eh bien oui, les solutions de sécurité tendent à s'installer au plus bas niveau possible pour mieux surveiller les menaces, CrowStrike n'est pas une exception.
Un peu de recherche historique nous montre qu'à l'origine le noyau de Windows n'était pas ouvert. Par exemple, les pilotes graphiques ne s'exécutaient pas en mode noyau. Aujourd'hui ce n'est plus le cas, pour des raisons de performance les pilotes vidéo ont été déplacés au niveau du noyau.
Mais le trajet a aussi été effectué en sens inverse. Par exemple, à l'origine, les pilotes d'imprimantes étaient dans le noyau Windows. Seulement, les imprimantes sont devenues complexes, connectées en réseau, accessibles depuis l'extérieur, donc risquées. Le modèle de pilote d'imprimante a été déplacé en mode utilisateur pour rendre Windows beaucoup plus robuste et stable.
Donc la faute à... la Commission Européenne ?
En 2009, la firme de Redmond avait tenté de verrouiller l'accès à son système d'exploitation mais la commission Européenne en a décidé autrement.
Selon Microsoft, un accord d'inter-opérabilité imposé par la Commission européenne en 2009 pourrait avoir conduit l'éditeur de Windows à ouvrir ses technologies, ce qui a permis à un partenaire comme CrowdStrike de provoquer la panne du 19 juillet dernier.
Il y a bien eu un accord en 2009 et conformément aux conditions fixées et Microsoft a été amené à fournir aux éditeurs de logiciels de sécurité tiers l'accès aux API utilisées par ses produits de sécurité dans les systèmes d'exploitation Windows Client et Server.
L'EU n'a pas trouvé d'accord avec Apple et Google mais il faut rappeler que la part de marché des systèmes d'exploitation de Microsoft en 2009 était de plus de 95 %. Ça a bien changé depuis.
Quoiqu'il en soit, après avoir rappelé que cet accord de 2009 avec l'EU était une des raisons de l'incident, Microsoft semble avoir nuancé sa position. Surement que pointer le doigt vers l'EU (alors que Microsoft n'est pas à priori responsable) n'est pas très judicieux.
Conclusion et enseignements pour l'avenir :
L'événement du 19 juillet 2024 n'est pas anodin. En prenant un peu de recul on a vu que plusieurs facteurs favorable étaient en place pour qu'il survienne (Monopole, architecture, performance, compétition, régulation...), sans compter pour celui ou celle qui observe le marché de la tech, un contexte de vagues de licenciements massifs, et cela depuis plusieurs mois.
Dans le cas présent, jeter l'opprobre sur Microsoft est injuste. L'incident a faussement été attribué à Microsoft le jour même. C'est une mise à jour de Crowdstrike qui est à l'origine de la pane sur 8,5 Millions de machines. Pas de mise à jour, pas de pane, c'est le fait générateur. De plus la firme de Redmond a bien été obligée par l'UE d'ouvrir son système il y a 15 ans, alors qu'elle avait la même position qu'Apple.
Blâmer Crowdstrike est tout aussi injuste. La majorité des solutions de sécurité sont installées en bas niveau, cet incident aurait pu survenir chez un autre éditeur et concurrent.
Néanmoins, on peut tout de même s'interroger sur les contrôles et les vérifications qui ont été effectuées avant de distribuer la mise à jour.
En effet, il ne s'agit pas d'une anomalie exotique sur quelques machines ayant une configuration particulière. C'est l'ensemble des postes clients de la solution qui ont été affectés. La question de la vérification (et non pas par des automates) et des tests unitaires réalisés en amont est toute légitime. Manifestement, ils ont fait défaut.
Les éditeurs de sécurité évoluent dans un marché très concurrentiel, être le premier à disposer d'une solution à jour, proactive et en temps réel contre les menaces est un avantage compétitif. Cette compétition pousse les éditeurs à confondre vitesse et précipitation.
Au niveau des éditeurs et de Microsoft, il y a surement beaucoup de leçons à tirer de cet incident. Certes, Microsoft s'est fait un peu tordre le bras pour ouvrir son système d'exploitation, mais les conditions d'accès au noyau devraient (et vont certainement) être revues. Microsoft peut revoir son architecture noyau, ses API mais ça risque être complexe car beaucoup de produits partenaires et aussi de Microsoft ont des intégrations de bas niveau. L’écosystème Windows est beaucoup plus vaste que celui de ses concurrents et il y a plus de chances que l’éditeur pose de nouvelles conditions techniques à ses partenaires.
Des alternatives techniques déjà testées vont émerger pour contourner cet accès au noyau tout en essayant d'en conserver les avantages de sécurité et de performance, tant du côté de Windows que des éditeurs. CrowdSrike propose bien sur Mac des solutions qui fonctionnent sans accès bas niveau, ce qui permet d’éviter le crash du système.
Côté réglementaire, il y a peut-être quelque chose à revoir, le paysage de 2009 à bien évolué en 15 ans et les OS ouverts à ce point présentent un réel risque. De plus, les règles ne sont pas les mêmes pour tout le monde.
Enfin, on peut souligner que Microsoft propose sur ces OS une clé de récupération permettant de redémarrer un Pc qui ne boot pas. Cela aurait permis de gagner du temps, Mais combien de DSI l'avaient mise en œuvre avant l’incident ?
Ultimement, d'aucun rappelle à envie que l'on ne fait pas de mise à jour un vendredi. Oui mais voilà en 2024, la mise à jour d'une solution de sécurité comme un EDR si l'on veut rester protégé, ça ne fonctionne pas comme ça.
Quoiqu'il en soit, le fait de constater qu'une panne sur 8,5 Millions de Pc dans le monde suffit pour mettre à l'arrêt des pans entiers de l'économie, de l'industrie et certains services étatiques, doit bien faire réfléchir et amener à tirer quelques enseignements sur nos architectures, la fiabilité technique, la résilience et la sécurité de la sécurité.
Les assureurs seront également amenés à réfléchir sur le sujet, mais cela fera l'objet d'un prochain papier.
- Anmelden oder Registrieren, um Kommentare verfassen zu können
Grains de Sable Numériques : Quand de petites défaillances causent de grands désordres

Le 19 juillet 2024, la société CrowdStrike, un des leaders mondial cybersécurité, a distribué une mise à jour qui a causé une panne d'une ampleur inédite. 8,5 millions de postes informatiques chez ses clients ont planté mettant à l'arrêt les entreprises. Cependant, cette panne, bien qu'exceptionnelle, n'est pas un cas isolé. Le monde a connu plusieurs pannes informatiques importantes, touchant divers secteurs et infrastructures critiques.
Ces incidents rappellent l'importance de la résilience des systèmes informatiques et des systèmes redondants. En l'espèce, disposer d'un poste informatique de secours prêt à l'emploi pour chaque collaborateur est impossible car trop couteux. Crowdstrike a vite réagit en proposant un correctif, fastidieux à mettre en oeuvre, chaque machine devant être traitée séparément, mais sans difficulté. Cette panne ne doit pas nous faire oublier des précédents qui bien d'ampleur moindre, n'en sont pas moins graves. A titre d'exemple, voici quatre grosses pannes informatiques de ces 25 dernières années.
Bug d'Amazon Web Services (AWS) en 2017 - Erreur humaine
En février 2017, Amazon Web Services (AWS), l'un des principaux fournisseurs de services cloud au monde, a subi une panne majeure qui a perturbé de nombreux sites web et applications dépendant de son infrastructure. Cette panne a été provoquée par une erreur humaine lors d'une opération de maintenance sur le service de stockage S3 (Simple Storage Service). Un technicien a accidentellement supprimé un ensemble de serveurs de commandes cruciaux, ce qui a entraîné une cascade de problèmes affectant les services S3 dans la région est des Etats-Unis. En conséquence, plus de 100 000 milles de sites web et services en ligne de ses clients, y compris des plateformes majeures telles que Netflix, Slack, l’app store, ont été indisponibles pendant plusieurs heures. Cet incident a mis en évidence la dépendance accrue des entreprises à l'égard des services cloud et l'importance d'avoir des plans de continuité robustes pour gérer les interruptions de service.
Le Bug Informatique de Toyota en 2009 - Erreur de programmation
En 2009, Toyota a été au cœur d'un scandale majeur lié à un bug informatique dans ses véhicules, entraînant des rappels massifs et des inquiétudes sur la sécurité de ses véhicules. Le problème, connu sous le nom de "sudden unintended acceleration" (accélération involontaire soudaine), faisait que certains véhicules Toyota accéléraient brusquement sans que le conducteur n'appuie sur la pédale d'accélérateur. Cette défaillance a été attribuée à plusieurs facteurs, dont des problèmes logiciels dans le système de contrôle électronique de l'accélérateur, ainsi que des défauts mécaniques comme des pédales d'accélérateur coincées et des tapis de sol mal ajustés. Des accidents mortels ont été associés à ce bug, ce qui a conduit à une crise de confiance chez les clients et a fortement entaché la réputation de la marque. Toyota a rappelé plus de 10 millions de véhicules dans le monde entier pour corriger ces problèmes et a été condamné à 1,2 Milliards de Dollars par les autorités américaines. Ces problèmes qui ont concerné plusieurs véhicules de la marque sur des périodes différentes, ont terni l'image de la marque qui avait fait preuve d'arrogance allant même jusqu'à prétendre que les conducteurs confondaient la pédale de frein et d'accélération. Quoiqu'il en soit, l'intégration de logiciels et de l'électronique embarquée et maintenant de l'IA dans les véhicules modernes reste un enjeu de sécurité, comme l'a encore prouvé les récents accidents provoqués par des véhicules autonomes.
Le Bug de la Division du Pentium en 1994 - Erreur de conception
Survenu en 1994, est un célèbre incident informatique qui a marqué l'histoire de l'informatique. Ce bug concernait les processeurs Intel Pentium et se manifestait par des erreurs de calcul lors des opérations de division en virgule flottante. Identifié pour la première fois par un professeur de mathématiques, Thomas Nicely, le problème provenait d'une faute dans l'algorithme utilisé par le processeur pour effectuer ces divisions, conduisant à des résultats incorrects dans certaines conditions très spécifiques. Bien que cette erreur, relativement simple, résultait en fait d'un problème dans la table de consultation des algorithmes de la puce avec une probabilité était de 1 sur 9 milliards. La révélation a provoqué un tollé parmi les utilisateurs et la communauté scientifique, car la précision des calculs était cruciale pour de nombreuses applications professionnelles et scientifiques. En réponse, Intel a mis en place un programme de remplacement gratuit des processeurs défectueux, mais a initialement sous-estimé l'impact du bug, ce qui a affecté la confiance des consommateurs. Cet incident aura une incidence sur le cours de l'action et le fondeur provisionnera 500 Millions de Dollars pour procéder à l'échange des processeurs défectueux, à condition que le consommateur reproduise l'erreur sur sa machine.
Le Bug Réseau AT&T en 1990 - Erreur dans une mise à jour.
En janvier 1990, AT&T, l'une des plus grandes entreprises de télécommunications aux États-Unis, a connu une panne réseau massive qui a paralysé son service de longue distance pendant environ neuf heures. Cette panne, qui a affecté des millions d'appels à travers le pays, a été causée par un bug logiciel dans le système de commutation électronique de l'entreprise. Ce système, essentiel pour la gestion et le routage des appels, contenait une erreur dans une mise à jour logicielle récente. Le bug se déclenchait lorsqu'un switch (commutateur) subissait une surcharge et tentait de redémarrer, entraînant un effet domino qui faisait tomber d'autres commutateurs en cascade. L'incident a eu des répercussions importantes, non seulement pour le public, mais aussi pour les entreprises et les services d'urgence qui dépendent des communications de longue distance. Cela a pu en avoir aussi pour les appels de secours et les urgences. AT&T a subi des pertes financières importantes et une atteinte à sa réputation, ce qui a conduit l'entreprise à revoir et renforcer ses procédures de test et de validation logicielle.
Voila quelques exemple pas si anciens qui nous rappellent qu'il faut relativiser l'incident provoqué par Crowdstrike. D'une part, l'entreprise a vite réagi et d'autre part, il n'y a pas eu de mise en danger. D'une manière générale, ces exemples illustrent à quel point nous sommes devenus dépendants des systèmes informatiques que ce soit pour tâches professionnelles ou du quotidien et cela en plein avénement de l'IA.
- Anmelden oder Registrieren, um Kommentare verfassen zu können
Linus Torvalds : Le Génie peu sociable derrière l'Open Source -

En 1969, à Helsinki, Linus Benedict Torvalds naissait, destiné à devenir une figure emblématique de l'informatique mondiale. Dès son plus jeune âge, il développe un intérêt précoce pour les ordinateurs, explorant les possibilités offertes par son Commodore VIC-20. Cette passion pour la technologie le guide naturellement vers des études en informatique à l'Université d'Helsinki, où il commença à se façonner un avenir révolutionnaire.
Inspiré par MINIX, un système d'exploitation éducatif développé par Andrew Stuart Tanenbaum (chercheur et enseignant) et combiné à son désir de tirer le meilleur parti des capacités du processeur Intel 80386, il commence le développement du noyau Linux. Sa vision pragmatique et son engagement envers la résolution de problèmes concrets ont été des piliers de sa pensée tout au long de ce processus. Cette déclaration faite lors d’une conférence organisée par le média TED en 2016 en est l’ultime preuve: « I am not a visionary. I'm an engineer. I'm happy with the people who are wandering around looking at the stars but I am looking at the ground and I want to fix the pothole before I fall in ».
Le premier prototype du noyau Linux voit le jour en mars 1994, et marque le début d'une révolution dans le domaine de l'informatique. Ce système d'exploitation, publié sous licence GPLv2 en 1991 permet aux utilisateurs d’étudier et de modifier le logiciel. Il devient rapidement la base de nombreuses distributions GNU/Linux, propulsant ainsi l'open source à une échelle mondiale. La décision de Torvalds de rendre Linux accessible à la communauté des développeurs a ouvert à ce moment là, la voie à une collaboration mondiale sans précédent.
Les utilisateurs interagissent avec le système à travers des environnements de bureau ou des interfaces en ligne de commande. Les distributions Linux, telles qu’Ubuntu, Fedora et Debian, qui sont arrivées au fil du temps, combinent le noyau Linux avec divers logiciels pour offrir des systèmes d'exploitation complets et adaptés à différents besoins, allant de l’administration de serveurs à l'utilisation personnelle ou encore la programmation.
Linux utilise un noyau monolithique, où tous les composants du système d'exploitation sont intégrés (gestion de processus et de mémoire, les pilotes de périphériques, le système de fichiers…), ce qui diffère des approches hybrides ou micro-noyaux utilisés par d'autres systèmes, respectivement, Windows et macOS. L'utilisation de cette approche monolithique confère une exécution efficace de toutes les fonctionnalités essentielles au sein du noyau, mais moins flexible et une moins bonne sécurité dans certains cas.
Ces deux aspects sont contrebalancés par la gestion des périphériques sous Linux, où les pilotes sont souvent développés par la communauté, ce qui assure une compatibilité étendue et une très grande flexibilité. En effet, une vaste communauté d'utilisateurs et de développeurs contribue à Linux, offrant une documentation abondante, des tutoriels en ligne, échanges et partages de connaissance sur des forums. Le support communautaire est souvent rapide et efficace et avec certaines distributions il offre également un support commercial pour les professionnels.
Revenons maintenant sur notre cher Linus Torvalds qui, après avoir obtenu son diplôme universitaire, rejoint Transmeta Corporation, une société fabriquant des microprocesseurs, où il travailla jusqu'en 2003. Cette année-là, il intègre l'Open Source Development Labs, rebaptisé plus tard Fondation Linux, où il continue à jouer un rôle central en supervisant le développement du noyau Linux. Son leadership et son expertise technique ont contribué à faire de Linux un système d'exploitation de choix pour une gamme diversifiée d'applications, des serveurs d'entreprise aux super-ordinateurs, et même aux appareils mobiles, comme pour Android qui est basé sur ce noyau.
En parallèle de son travail sur Linux, Linus Torvalds crée Git en 2005 un système de gestion de versions décentralisé. Le nom «Git» est tiré d’une insulte en argot britannique choisi par Linus Torvalds qui explique : « I'm an egotistical bastard, and I name all my projects after myself. First Linux, now Git.». Sa création vient en réponse aux défis spécifiques rencontrés lors du développement de Linux. Face à la nécessité d'un outil robuste pour gérer efficacement les versions du code source à grande échelle et de manière distribuée, Git est né pour répondre à ces exigences. Contrairement aux systèmes de gestion de versions centralisés précédents, Git permet à chaque développeur de travailler avec une copie complète du projet sur sa propre machine. En tant que logiciel libre et distribué sous la licence publique générale GNU version 2, il encourage la transparence et la collaboration, ouverte à l'échelle mondiale. Cette approche décentralisée a non seulement simplifié la gestion des versions pour des projets de toutes tailles, mais elle a aussi facilité la contribution et la fusion de code entre des développeurs qui étaient dispersés géographiquement.
Aujourd'hui, Git est devenu un pilier incontournable du développement logiciel moderne, utilisé non seulement par la communauté Linux mais également par des millions de développeurs à travers le monde sur divers environnements, y compris pour des OS concurrents de Microsoft et Apple. Techniquement, Git se distingue par son architecture de bas niveau et son efficacité qui permet de minimiser la duplication de données et d'optimiser la gestion des fichiers à travers les différentes versions du projet. Son impact dépasse aujourd'hui largement son créateur et le projet initial. Git est devenu un pilier du développement moderne.
La personnalité de Linus Torvalds est souvent décrite comme directe, rugueuse et sans compromis avec l'excellence technique. Son engagement envers l'open source et sa capacité à mettre de côté les différences personnelles pour favoriser la collaboration ont été essentiels à la croissance continue de Linux. Au cours de la même conférence évoquée plus tôt, Il se confie sur lui et sur ce qu’il apprécie avec l’open source : « We are different. I am not people person. It’s not something I am particularly proud of but it’s part of me. And one other things I really like about open source is that’s really allows people to work together. We don’t have to like each other. »
L'héritage de ce révolutionnaire dépasse largement ses contributions techniques. Sa capacité à créer des écosystèmes collaboratifs robustes a redéfini la manière dont le développement logiciel est perçu et réalisé à l'échelle mondiale. Aujourd'hui, bien que souvent critiqué pour son approche rigoureuse, il demeure une figure incontournable dans la communauté open source.
Linus Torvalds, bien qu’il ne se définisse pas comme tel, incarne un mix singulier rare de visionnaire et d'ingénieur, dont les créations, Linux et Git, ont redéfini le paysage de l'informatique moderne.
Son travail a non seulement transformé l'industrie informatique mais a également inspiré des générations de développeurs à travers le monde, illustrant l'immense force créatrice permise par l'open source et de la collaboration mondiale dans la création de technologies qui façonnent notre avenir. Et le tout par des hommes et des femmes qui pour la plupart ne se sont jamais rencontrés et qui, comme le dit Linux, ne sont pas obligés de s'apprécier pour bien travailler ensemble.
- Anmelden oder Registrieren, um Kommentare verfassen zu können
IA : Sommes-nous à la veille de perdre le contrôle sur notre propre création ?

L'intelligence artificielle (IA) a parcouru un long chemin depuis ses origines dans les années 1940-1950. Les premières avancées théoriques, comme le modèle de neurones artificiels de McCulloch et Pitts en 1943, et le célèbre "Test de Turing" proposé par Alan Turing en 1950, ont jeté les bases de cette discipline fascinante. En 1956, la conférence de Dartmouth marque le début officiel de l'IA en tant que domaine académique.
Les décennies suivantes ont vu l'IA évoluer à travers des périodes de succès et de récession. Les années 1960 ont été marquées par les premiers programmes d'IA capables de résoudre des problèmes mathématiques et de simuler des conversations. Toutefois, l'enthousiasme a diminué dans les années 1970, une période connue sous le nom d'"hiver de l'IA", en raison des limites technologiques et des attentes non satisfaites.
L'IA a connu une renaissance dans les années 1980 avec l'émergence des systèmes experts et a continué à progresser dans les années 1990 avec des succès publics notables, tels que la victoire de Deep Blue d'IBM contre le champion du monde d'échecs Garry Kasparov en 1997. Les années 2000 ont été caractérisées par des avancées significatives en apprentissage machine et réseaux neuronaux profonds, ouvrant la voie à des applications plus sophistiquées.
Depuis 2010, l'IA a explosé dans divers domaines, avec des percées comme la victoire de Watson d'IBM à Jeopardy! en 2011 et celle d'AlphaGo de DeepMind contre le champion du monde de Go en 2016.
Ces succès démontrent le potentiel de l'IA à transformer de nombreux secteurs grâce à des capacités avancées d'automatisation, d'analyse des données, de reconnaissance et de traitement du langage naturel. Aujourd'hui, l'IA continue d'évoluer rapidement, promettant de révolutionner des domaines tels que la santé, l'éducation et les transports, tout en soulevant des questions éthiques et sociétales cruciales. Cette ascension fulgurante invite à une réflexion approfondie sur son impact futur et sur la manière dont nous pouvons naviguer dans cette nouvelle ère technologique.
Projection sur les années, décennies à venir
En constatant l’évolution exponentielle en si peu de temps de ce domaine qu’est l’intelligence artificielle, des questions peuvent émerger chez plusieurs personnes pour savoir ce qu’il adviendra de l’IA dans les années, décennies voire plus à venir. Prédire avec précision l'évolution de l'intelligence artificielle sur de si longues périodes est extrêmement complexe, car cela dépendra de nombreux facteurs technologiques, sociaux, économiques et éthiques qui peuvent changer de manière imprévisible. Cependant, voici quelques perspectives générales sur l'évolution potentielle de l'IA jusqu'en 2050, 2100 et au-delà
2050 c'est déjà demain
En 2050, l'intelligence artificielle pourrait être profondément intégrée dans notre quotidien, révolutionnant de nombreux aspects de notre vie. Les applications d'IA seraient omniprésentes, se trouvant dans des domaines tels que la santé, l'éducation, les transports et les services financiers. L'IA permettrait des diagnostics médicaux plus rapides et précis, une éducation personnalisée et adaptative, des transports autonomes et optimisés, ainsi que des services financiers prédictifs et sécurisés. Les systèmes experts avancés pourraient résoudre des problèmes complexes dans des domaines spécifiques avec une précision inégalée, surpassant les capacités humaines dans certaines tâches analytiques.
Des avancées notables seraient également réalisées dans le domaine de l'IA éthique. Il serait crucial de garantir que les systèmes d'IA agissent de manière juste et responsable, en respectant les valeurs humaines et en évitant les biais et discriminations. Les interactions homme-machine deviendraient plus intuitives et naturelles, permettant une collaboration plus étroite et efficace entre les humains et les systèmes d’IA. Cependant, cette ère de progrès ne serait pas sans défis pour les sociétés. La gestion de la vie privée, de la sécurité et de l'impact sur l’emploi deviendrait essentielle, nécessitant des régulations appropriées et une réflexion éthique constante pour éviter des dérives potentielles.
2100 allons plus loin
D'ici 2100, l'intelligence artificielle pourrait transformer radicalement notre société. La possibilité d'atteindre une forme d'intelligence artificielle générale (AGI) pourrait devenir réalité, avec des capacités cognitives surpassant celles des humains dans de nombreux domaines. Cette superintelligence pourrait résoudre des problèmes complexes, innovant dans des domaines variés et facilitant une transformation profonde des sociétés. L'automatisation avancée et la médecine personnalisée basée sur l'IA deviendraient courante, améliorant considérablement la qualité de vie et les soins.
L'IA devrait également jouer un rôle crucial dans l'exploration et la colonisation spatiale, aidant à la gestion des ressources et à la navigation interplanétaire. Des robots et systèmes autonomes assisteront les missions spatiales, rendant possible l'exploration de nouvelles planètes et l'établissement de colonies humaines. Toutefois, ces progrès soulèvent de nouveaux défis éthiques. La coexistence avec des intelligences supérieures et la préservation de l'humanité deviendraient une question centrale, voire vitale, nécessitant une réflexion approfondie pour garantir que ces technologies servent le bien commun et respectent les valeurs humaines fondamentales.
3 000 au delà de l'esprit humain
À l'horizon 3000, l'intelligence artificielle pourrait évoluer au-delà de toute spéculation actuelle, transformant la civilisation humaine de manière inimaginable. L'IA pourrait être intégrée à la société humaine d'une manière que nous ne pouvons pas actuellement concevoir. Les notions de transhumanisme et de post-humanité deviendraient une réalité, les frontières entre les humains et les machines seraient floues. Les individus pourraient posséder des capacités augmentées grâce à l'intégration de technologies avancées, modifiant profondément notre conception de l'humanité.
L'IA jouerait un rôle central dans l'évolution de la civilisation, contribuant à la résolution de problèmes cosmiques et la compréhension des origines de l’univers. Les technologies basées sur l'IA pourraient être utilisées pour explorer les confins de l'univers, résoudre des problèmes astrophysiques complexes et découvrir de nouvelles formes de vie. Les interactions interstellaires deviendraient possibles, facilitant les communications avec d'autres civilisations potentielles dans l’univers.
Cet avenir spéculatif souligne l'importance de développer une approche éthique et réfléchie à mesure que nous intégrons cette technologie puissante dans notre société, garantissant que l'IA continue à servir l'humanité de manière positive et responsable. On est en plein rêve... mais il y a plus de 500 ans Leonard de Vinci a bien rêvé que l'Homme volerait un jour.
Les Dangers de l'IA : Mises en garde et réflexions
L'intelligence artificielle suscite des craintes en raison de son potentiel immense et encore mal défini. Bien que l'IA soit déjà utilisée pour écrire du code et développer des programmes, elle se contente aujourd’hui de scanner les bases de données existantes pour lister et intégrer le maximum de références. Les programmeurs humains restent nécessaires pour leur créativité et leur capacité à mettre en œuvre des lignes de code plus sophistiquées. A juste titre, l’intelligence artificielle suscite des inquiétudes chez de nombreuses personnes, voici quelques exemples :
- Perte d'emplois : L'automatisation par l'IA menace de remplacer un grand nombre d'emplois, particulièrement ceux nécessitant des tâches répétitives et analytiques. Bien que l'IA puisse créer de nouveaux emplois qu'elle en détruira, la transition pourrait entraîner une d'incertitude pour de nombreuses personnes.
- Biais et Discrimination : Les systèmes d'IA peuvent répéter et même amplifier les biais présents dans les données avec lesquelles ils sont entrainés. Cela peut conduire à des discriminations dans des secteurs sensibles comme le recrutement, la justice et la surveillance.
- Sécurité et Contrôle : Il y a de réelles inquiétudes concernant la sécurité des systèmes d'IA, notamment les risques de piratage et de manipulation. La question du contrôle est également cruciale : qui est responsable et comment garantir que l'IA agisse dans la durée dans le cadre initial réglementaire, moral et éthique qui lui.a été défini.
- Privation de Vie Privée : Les capacités de surveillance et d'analyse de l'IA peuvent menacer la vie privée et les droits des personnes. La collecte et l'analyse massive de données personnelles peuvent conduire à des violations de la vie privée et à une surveillance accrue présentant un risque pour nos démocraties. Hélas, c'est déjà le cas dans certains pays.
- Autonomie et Prise de Décision : Les systèmes d'IA de plus en plus autonomes pourraient "pendre des décisions" sans intervention humaine. Cela soulève des questions sur les responsabilités, en particulier si ces décisions entrainent des conséquences dramatiques.
- Armes Autonomes : L'IA dans le domaine militaire pourrait aboutir à la création d'armes autonomes capables de prendre des décisions de vie ou de mort sans intervention humaine.
- Superintelligence et Singularité : La crainte d'une superintelligence – une IA surpassant l'intelligence humaine dans tous les domaines – alimente les scénarios dystopiques où l'IA pourrait agir de manière imprévisible et potentiellement hostile.
- Érosion des Compétences Humaines : Avec l'IA assumant de plus en plus de tâches complexes, il y a un risque que les compétences humaines se détériorent, conduisant à une dépendance excessive à la technologie et à une perte des connaissances.
Bien que l'IA offre des opportunités considérables de progrès, il est crucial de gérer et de réglementer son développement et son utilisation de manière proactive. Cela implique des efforts concertés pour établir des cadres règlementaires, un usage éthiques qui garantissent que l'IA sera développée et déployée de manière responsable et dans l'intérêt général.
Cependant, il est également important de mettre en garde contre les dangers potentiels de l'IA. Sans une surveillance adéquate, l'IA peut être utilisée de manière malveillante pour causer du mal.
Il est en ainsi de tout progrès et chaque médaille à son revers ; La chimie, le nucléaire, l'internet et aujourd'hui l'IA. Ce n'est pas l'outil qui compte mais l'usage que l'on en fait.
- Anmelden oder Registrieren, um Kommentare verfassen zu können
La création d'un indice cyber

Il y a quelques semaines, nous avions reçu le journal de CEA - Compagnie des Experts Agréés. S’ensuivit une discussion sur les indices (FFB, RI, BM…) et nous nous sommes demandés s’il existait un cyber indice Cyber ? Nous avons cherché comment nous pourrions créer et proposer cet indice.
Mais alors, qu’est-ce qu’un indice ?
Apparus à l'ère industrielle, les indices, d'abord boursiers, se sont étendus à l'ensemble des activités, la consommation et même aujourd'hui'i au bien-être. Le premier indice boursier, le Dow Jones, est paru le 3 juillet 1884 dans l'« Afternoon News Letter ». Point de formules ésotériques : il prenait juste en compte les cours de clôture de 11 sociétés, dont 9 compagnies de chemin de fer et 2 entreprises industrielle
Les indices, souvent composites, sont des outils analytiques et des indicateurs utilisés dans de nombreux secteurs pour mesurer, suivre et prévoir des tendances ou des performances.
Dans le domaine des assurances, les indices jouent sur le montant des garanties et les franchises. En effet, cela permet aux parties d'avoir un contrat "vivant" suivant les fluctuation de tel ou tel indice, les franchises et les garanties fluctuantes «en fonction de l’indice» ou encore «à concurrence ou hauteur de X fois l’indice.»
Il existe plusieurs types d’indices utilisés tous les jours, parmi les plus courants :
- L’indice FFB (Fédération Française du Bâtiment) permet de déterminer le prix de l’assurance habitation. Cet indice est émis par la FFB en fonction du coût de la construction d’un immeuble en France.
- L’indice RI (Risque Industriel) mesure le risque global associé à des installations ou des opérations industrielles spécifiques.
- L’indice BM (Bris de Machine) est utilisé pour déterminer la probabilité de défaillance de machines dans un contexte industriel.
L'utilisation d'indice est assez juste au fond. Par exemple, l'assureur est plus engagé à cause de la hausse d'un indice ou d'une de ses variables (exemple cout de la construction), il est logique que l'assuré le soit aussi, et inversement en cas de baisse, que cette baisse profite à celui qui paie la prime.
L'assurance cyber, relativement jeune, couvre un risque résiduel face des menaces à fort caractère évolutif et souvent nouvelles.
Dans ce contexte et plus largement pour mieux suivre le risque cyber, on peut s’interroger sur la création d’un indice cyber, permettant de mesurer, de quantifier et, en définitive, de mieux gérer les risques liés à la cybersécurité, à l'instar de ce qui se fait dans l'industrie, la construction ou encore le bris de machine.
La création d'un tel indice représente un défi, le premier d'entre eux étant d'atteindre le consensus de toutes les parties impliquées dans la "sécurité informatique". Que ce soit au niveau opérationnel, stratégique, financier, législatif et règlementaire...
Alors bon courage et bouclez vos ceintures car l'exercice est intellectuellement intéressant !
Nous allons évoquer les différents éléments qui pourraient constituer notre hypothétique indice cyber et ce qui pourrait influencer sa variabilité.
Que mettons-nous dans cette recette ?
Le niveau de menace cyber internationale est un élément important pour l'indice cyber car elle reflète l'impact global des cyberattaques qui affectent les entreprises et les économies. L'inclusion du niveau de menace cyber internationale dans l'indice peut aider à prédire les tendances de cyberattaques. Par exemple, une recrudescence des attaques ransomware à l'échelle mondiale, comme observée avec le ransomware Lockbit, devrait influencer l'indice, signalant une augmentation des risques. Néanmoins, il conviendra de déterminer une échelle de niveau de menace.
Les tensions géopolitiques influencent directement le niveau de risque cyber, notamment par l'intensification des cyberattaques commanditées par des États. En effet, en temps de guerre, on peut constater une recrudescence d'attaques, des pays et de types organisations sont plus ciblées, et d'autres ne le sont plus. Une composante géopolitique nous parait donc être un facteur important d'un indice cyber.
Le coût de la main d'œuvre en cybersécurité, est une composante importante, tout comme dans le bâtiment ou l'industrie. Celui-ci est souvent représenté par des indices comme le Syntec, qui est un indicateur de la demande de compétences en sécurité et de la pression sur le marché du travail. L'évolution de ces coûts peut indiquer des tensions sur le marché (difficultés de recrutement, raréfaction ou trop de personnel qualifié,). La capacité globale des marchés à répondre aux incidents de sécurité, qui plus est en cas d'attaque systémique dépendra aussi des ressources disponibles.
L'évolution des activités malveillantes par secteur d'activité au niveau national ou régional nous semble également pertinent pour composer notre indice. Cela permet d'ajuster l'indice pour refléter les risques à un niveau plus granulaire, offrant ainsi une mesure plus précise du climat de sécurité par type de secteur d'activité. Une augmentation des attaques ciblant le secteur bancaire dans un pays particulier pourrait nécessiter un ajustement de l’indice.
Le prix moyen des services informatiques liés à la sécurité aux entreprises est un indicateur qui nous parait aussi valable pour composer notre indice. Une hausse des prix pour les services de réponse aux incidents pourrait indiquer des tensions sur le marché, soit à cause d'une demande forte (suite à attaques), soit des difficultés de recrutement, mais aussi un manque concurrence entre les acteurs.
L’évolution de la moyenne des CVE répertoriées par trimestre pourrait fournir une composante de notre indice cyber. Cette moyenne des CVE pourrait également être pondérée en fonction d des criticités. Une évolution dans la publication de nouvelles CVE pourrait refléter une période de faiblesses technologique causant un risque accru ou une amélioration de la "qualité" technologique.
Les frais d’analyse forensic fournissent une information importante sur la complexité et la sévérité des attaques cyber. Des coûts élevés peuvent indiquer des attaques plus complexes ou dommageables, influençant l'indice cyber en signalant des menaces plus sévères. Une série d'attaques entraînant des coûts d'analyse forensic exceptionnellement élevés pourrait être un signe d'un environnement de menace exacerbé, ciblant les grandes entreprises, impactant notre indice.
On peut réfléchir à inclure bien d'autres "ingrédients" mais ce petit essai de réflexion sur un indice cyber souligne la complexité et nombre de paramètres possibles pour mesurer et comprendre le niveau du risque. Aussi afin de mieux se préparer et pour l'anticiper en fonction des tendances. Cela ne dispensera pas l'entreprise d'auditer son SI
La création d’un indice cyber, capable de fournir des évaluations fiables et pertinentes est loin d’être simple. L'assurance cyber dans sa forme moderne est jeune et manque de recul. L’émergence rapide de nouvelles technologies (IA générative par exemple) pose constamment de nouveaux défis qui n'étaient pas anticipés dans les modèles de risque plus anciens.
Contrairement à l'incendie, au bâtiment, la cybersécurité évolue vite, très vite. Notre indice serait-il déjà obsolète ?
Peut-être pas s'il est suffisamment souple et large pour éviter d'être remis en cause tous les ans ou à chaque évolution. L'absence de référentiels reconnus et globalement partagés complique la création d'un indice valide et accepté par le plus grand nombre.
Alors que certaines régions du monde adoptent des cadres réglementaires stricts, d'autres ont des approches moins rigoureuses, ce qui rend difficile la standardisation des mesures pour faire face au risque cyber. L'Union Européenne depuis quelques années tente à travers ses règlements, d'harmoniser des standards différents et propres à chaque état. C'est en bonne, la France y contribue activement au demeurant.
L'indice cyber, utile aux entreprises, aux institutions doit donc concilier les intérêts de nombreux acteurs, allant des entreprises de sécurité informatique aux régulateurs, chacun ayant des priorités et des objectifs parfois contradictoires.
En surmontant ces obstacles, nous pouvons espérer développer un indicateur fidèle qui non seulement suivra le risque de manière efficace mais qui également aidera les entreprises dans le pilotage de leur cybersécurité.
Et vous qu'en pensez-vous ? Est-ce pertinent de réfléchir à un indice cyber et si oui, avec quelles composantes ?
Lien vers les indices 👉 https://www.expert-cea.com/indices
- Anmelden oder Registrieren, um Kommentare verfassen zu können
Anonymous : de l'anonymat à influenceur Global

Vous avez surement déjà entendu parler ou vu des photos de personnes portant un masque blanc revendiquant une appartenance au groupe Anonymous. Savez-vous qu'avant d'être repris dans la BD "V for Vendetta", ce masque est lié à Guy Fawkes, l'homme qui a essayé au début du XVIIe siècle d'assassiner le roi d'Angleterre ?
Aujourd'hui Anonymous c'est bien plus qu'un déguisement : c'est une "force" mondiale d'activistes en ligne, luttant contre l'injustice, la censure et la corruption. Découvrez comment ce collectif a marqué l'histoire du cyber-activisme depuis ses débuts et inspire des millions de personnes à travers le monde.
LES ORIGINES
Le collectif est célèbre pour ses actions "anonymes" et ses coups d'éclat contre diverses organisations privées et ou publiques.
Anonymous serait apparu en 2003 (date à des premières revendications d'attaques DDoS) sur le forum anonyme 4chan. Le masque de Guy Fawke fait quant à lui sa première apparition en 2008 lors de manifestations.
Sur le forum 4Chan, le terme Anonymous était attribué aux visiteurs qui publiaient des commentaires sans identification.
Les premières mentions d'Anonymous en tant que groupe commencent à circuler fin 2006 autour d'un manifeste "Rules of the Internet" (seules les 47 premières règles à l'époque).
Anonymous se présente dès son origine comme un groupe de hackers et de cyber-activistes revendiquant la liberté d'expression et l'ouverture absolue d'internet. Par ailleurs, le groupe indique luter contre les discriminations et le racisme.
Ainsi en 2006, un parc d'attractions Américain a refusé l'accès à la piscine à un enfant séropositif, craignant la transmission de la maladie. Les Anonymous ont entrepris de défendre cet enfant en manifestant à l'entrée de la piscine et ont voulu le venger en liant cette histoire à celle qui s'est produit sur Habbo Hotel (l'ancien nom de Habbo), ou des modérateurs racistes s'amusaient a bannir des avatars noirs , juste par leur couleur de peaux, voir article sur le raid des Anonymous.
La notoriété du groupe décolle début 2008 avec plusieurs attaques contre l'église de scientologie (projet Chanology), mais aussi la participation à des manifestations pacifiques.
Article détaillé sur le projet Chanology 👉 https://fr.wikipedia.org/wiki/Projet_Chanology
Bien que l'identité des membres du groupe reste inconnue, des révélations et certaines arrestations au fil des ans ont permis d'en identifier quelques uns.
Ces arrestations ont souvent été le résultat de collaborations internationales entre diverses agences de sécurité. Par exemple, en 2011, le FBI a mené une série de raids qui ont conduit à l'arrestation de 16 individus liés à Anonymous. En 2012, Hector Xavier Monsegur, connu sous le pseudonyme de "Sabu", a été arrêté et a coopéré avec le FBI, aidant à l'arrestation de plusieurs autres membres du groupe.
En 2013, Jeremy Hammond, un hacker qui aurait fourni des données à Anonymous, a été condamné à 10 ans de prison pour son rôle dans le piratage de Stratfor, une société privée de renseignements. Ces arrestations montrent que bien que le collectif se veuille anonyme, l'identification et la capture de quelque membres reste possible. Mais c'est peut être que la partie immergée de l'iceberg.
Ces 2 hackers ont fait partie du groupe LulzSec mais ne considèrent pas avoir quitté Anonymous qui est avant tout "une idée et une conscience".
10 OPÉRATIONS ATTRIBUÉES AUX ANONYMOUS DEPUIS 2010
- Operation Payback (2010) En 2010, Anonymous a lancé l'« Operation Payback » en réponse au blocage par PayPal, Visa et MasterCard des paiements vers WikiLeaks. Utilisant des attaques DDoS (déni de service distribué), Anonymous a perturbé les services de ces entreprises pour protester contre la censure et soutenir la liberté d'information promue par WikiLeaks. Cette action a attiré l'attention sur les implications de la censure financière sur la liberté d'expression en ligne.
- Attaque contre HBGary Federal (2011)En 2011, Anonymous a ciblé HBGary Federal, une société de sécurité privée, exposant des e-mails internes qui révélaient des plans visant à détruire la réputation de WikiLeaks et de ses partisans. Cette opération a mis en lumière les pratiques controversées de certaines entreprises de sécurité privée et souligné les risques liés à la manipulation de l'opinion publique et à la surveillance illégitime.
- Contre la Censure en Russie (2012) En 2012, Anonymous a dirigé des attaques DDoS contre des sites gouvernementaux en Russie pour protester contre la loi de censure internet, connue sous le nom de "Loi Yarovaya". Cette législation renforçait les contrôles gouvernementaux sur l'internet russe, restreignant la liberté d'expression en ligne et la confidentialité des communications. Les attaques ont été une forme de résistance numérique contre ces mesures répressives.
- Soutien aux Manifestants de Ferguson (2014) Après la mort de Michael Brown à Ferguson, Anonymous a apporté un soutien significatif aux manifestants, dénonçant la brutalité policière et organisant des actions en ligne pour sensibiliser et mobiliser. Cette intervention a contribué à attirer l'attention internationale sur les tensions raciales aux États-Unis et à demander des réformes dans les pratiques policières.
- Opération Charlie Hebdo (2015) Après l'attentat contre Charlie Hebdo, Anonymous a pris pour cible des sites de groupes extrémistes en ligne, exprimant leur solidarité avec la liberté d'expression et leur opposition au terrorisme. Leur action visait à perturber les communications des groupes extrémistes et à défendre les valeurs de liberté et de tolérance face à l'extrémisme violent.
- Opération Darknet (2016) Anonymous a dirigé une opération contre les sites de pédopornographie sur le dark web, travaillant avec les autorités pour exposer et démanteler les réseaux d'exploitation d'enfants en ligne. Cette initiative visait à protéger les victimes potentielles et à renforcer les efforts internationaux de lutte contre les crimes numériques graves.
- Operation Facebook (2018) En réponse aux scandales de confidentialité et de gestion des données personnelles, notamment le scandale Cambridge Analytica, Anonymous a menacé de "détruire" Facebook. Ils ont dénoncé les pratiques invasives de collecte de données de la plateforme sociale, appelant à une meilleure protection de la vie privée des utilisateurs et à une responsabilité accrue des grandes entreprises technologiques.
- Soutien à Hong Kong (2019) En soutien aux manifestants pro-démocratie à Hong Kong, Anonymous a mené des cyber-attaques contre des sites gouvernementaux chinois, critiquant la répression des libertés civiques et exprimant une solidarité internationale avec les mouvements de protestation. Leur action visait à amplifier les voix des manifestants et à contester les politiques autoritaires du gouvernement chinois.
- Opération George Floyd (2020) Après la mort de George Floyd aux États-Unis, Anonymous a intensifié ses efforts contre la brutalité policière et le racisme systémique en attaquant les sites de la police de Minneapolis. Ils ont divulgué des informations sensibles pour révéler des pratiques policières contestées et pour soutenir les manifestations pour la justice raciale et sociale.
- Avec l'invasion de l'Ukraine (2022) En réponse à l'invasion de l'Ukraine par la Russie, Anonymous a lancé des cyber-attaques contre des cibles russes, incluant des sites gouvernementaux. Ils ont piraté des données sensibles et perturbé les communications militaires pour soutenir l'Ukraine dans sa lutte pour l'indépendance et la souveraineté, marquant ainsi leur opposition aux actions agressives et impérialistes. Ils continuent depuis et partage des données sensibles et stratégiques avec des services occidentaux.
PHILOSOPHIE ET CULTURE
La culture d'Anonymous est marquée par un mélange d'humour noir, de trolling (provocation en ligne) et d'activisme numérique. Ce groupe a su utiliser ces éléments pour attirer l'attention sur des causes importantes et mobiliser une communauté en ligne diverse et souvent dispersée géographiquement.
Selon Chris Lander, du Baltimore City Paper datant du 2 avril 2008, « Anonymous est la première superconscience construite à l'aide d'Internet. Anonymous est un groupe semblable à une volée d'oiseaux. Comment savez-vous que c'est un groupe ? Parce qu'ils voyagent dans la même direction. À tout moment, des oiseaux peuvent rejoindre ou quitter le groupe, ou aller dans une direction totalement contraire à ce dernier ».
Ayant participé à certains aspects du printemps arabe et au lancement du mouvement Occupy Wall Street, Anonymous rejoint certaines revendications de ces derniers.
En 2016, Anonymous met en place CyberGuerilla, un réseau IRC (réseau de discussion relayée par Internet) uniquement accessible par Tor. Le réseau « CyberGuerilla Onion IRC » permet de préserver l'anonymat de ses utilisateurs et sert de plaque tournante pour organiser les opérations et actions du collectif ou les projets de tout groupe souhaitant créer une communauté forte et concerné par la confidentialité et la sécurité sur Internet.
À travers CyberGuerilla, le collectif se mobilise dans la lutte pour le respect de l'éthique animale, la préservation de l'environnement et le développement durable. Il agit pour la libération de l'homme et s'oppose à toute forme d'oppression, de préjugés, d'autoritarisme et d'avant-gardisme.
Les motivations fondamentales d'Anonymous reflètent un engagement profond envers la défense des droits numériques et de la liberté d'expression sur Internet. Le groupe s'efforce de contrer les tentatives de contrôle et de censure du web par les gouvernements et les entreprises. Anonymous se positionne également comme un lanceur d'alerte virtuel, révélant les pratiques corrompues et les violations des droits à travers des actions de cyber-activisme.
En défendant le droit à l'information et en exposant la corruption, Anonymous cherche à responsabiliser les institutions et à informer le public, jouant ainsi un rôle crucial dans la promotion d'une société plus transparente et équitable.
Malgré les bonnes intentions affichées, le groupe n'est pas dépourvu de controverses, notamment la nature de ses actions, mais aussi en raison de sa structure décentralisée et de l'anonymat de ses membres.
PETITS SERVICES ENTRE AMIS ?
Depuis le début de "l'opération spéciale" lancée par Moscou, Anonymous n'a pas manqué de réagir en prenant position et en annonçant que le collectif poursuivra la cyber-guerre jusque'à la fin des attaques russes. Dès le 24 février, les Anonymous supprimait le site web de la chaîne de télévision RT, soutenue par Moscou, qui diffusait à l'époque en Europe.
D'autres actions ont suivi, comme le piratage de la banque Russe, la prise de contrôle de milliers d'imprimantes, le vol de données d'organisations liées à l'état Russe.
Le groupe fournit régulièrement des informations stratégiques concernant la Russie et les infrastructures en Criméeou sur des agences, comme par exemple l'agence spatiale Roscosmos ou encore des données personnelles sur des personnalités proches du Kremlin.
Des rumeurs persistent sur des collaborations supposées entre certains membres d'Anonymous et des entités gouvernementales comme la CIA, suscitant des doutes quant à l'indépendance et à la fiabilité du groupe.
Pourtant si l'on regarde dans le rétroviseur, les Anonymous avaient en 2012 attaqué un site de la CIA.
Cependant, l'histoire a peut être provoqué un rapprochement qui n'était pas évident au premier signe. D'abord en 2015 après les attentats de Paris, les Anonymous ont diffusé une déclaration de guerre (en Français) à l'état Islamique. Plus récemment avec la guerre en Ukraine, le collectif a clairement fait savoir pour qui il roulait.
La structure décentralisée d'Anonymous peut parfois conduire à des désaccords internes à des sous-groupes et à des actions non coordonnées. Certains de ces membres, ou sous-groupe peuvent alors décider de collaborer ponctuellement, collecter et transmettre des informations à des agences de contreterrorisme et de renseignement.
Ce n'est pas apprécié par tous les membres, en particuliers les anciens qui ont connu les arrestations de leurs amis. Certains ne veulent pas travailler ou aider les états car ils ne souhaitent pas être infiltrés et ou pourraient aussi mener des opérations contre eux.
Fondamentalement, les pionniers du groupe sont pour la liberté totale sur internet l'absence de censure. Ils considère qu'il vaut mieux s'opposer que de censurer.
Cependant, la ligne est mince lorsque l'on revendique des valeurs qui font écho dans l'opinion et plusieurs membres ont et collaborent des états, soit directement, soi en mettant des informations à disposition sur un serveur, Discord par exemple (sur les infrastructure en Crimée).
Il peut être parfois plus simple de laisser des groupes de hackers, faire ce qu'ils ont à faire, alors que la même cyber opération, si elle avait été montée par une agence aurait nécessité des accords, une planification, des justifications, de la paperasserie, bref, toute une lourdeur dont il est parfois pratique de s'affranchir, surtout lorsque l'on a déjà plein de fers au feu.
Ainsi pour le moment, le collectif (du moins de ce que l'on en sait) semble bénéficier d'une relative tranquillité en occident. Ses membres peuvent alors méditer à juste titre cette citation de Marc Aurèle "Ai-je été utile à mes semblables? Si oui, je me suis rendu service à moi-même."
A vous de vous faire un avis s'ils ont eu raison, ou pas.
- Anmelden oder Registrieren, um Kommentare verfassen zu können
Le fou du keylogger

Un keylogger ou enregistreur de frappe est un logiciel espion qui va enregistrer les saisies au clavier des utilisateurs. Toutes ces informations recueillies vont être envoyées à un hacker. Grace au keylogger le hacker va pouvoir récupérer de nombres informations (mots de passe, codes d’accès, numéros de carte bancaire, etc…).
Il y a 2 types de keylogger qui ont la même fonction mais qui s’utilisent différemment :
LES KEYLOGGERS LOGICIELS qui servent à exploiter les fonctionnalités du système d’exploitation. Ils enregistrent les captures d’écran les mouvements de souris et les conversations en ligne de la victime. Ils peuvent aussi enregistrer les saisies au clavier.
LES KEYLOGGERS MATERIELS plus rares, qui enregistrent la saisie au clavier. Leur installation nécessite d’être physiquement proche de la machine contrairement au keylogger logiciel qui peut être déployé à distance après une instrusion.
Le Serial Killogger le plus connu:
En 2017, Ankur Agarwal alors PDG et cofondateur de Clarion Technologies a récolté des informations liés aux mots de passe et les noms des d’utilisateurs des salariés de deux entreprises situées dans le New Jersey pendant près d’un an avant d’être pris la main dans le sac en 2018 lors d'un audit de sécurité. Dans la première entreprise il est rentré physiquement dans les locaux pour installer plusieurs keyloggers sur des postes de travail. En parallèle, il a aussi installé un keylogger logiciel sur le réseau. Son but état de récupérer des documents confidentiels concernant des technologies émergentes.
Pour pirater la seconde entreprise, il s’est fait faire un badge d’accès après avoir récupéré les identifiants d’un employé. Cela lui à permis d’entrer sans difficulté dans l’entreprise et d’y installer des keylogger sur les ordinateurs à disposition pour récupérer des documents en lien avec des technologies en cours de développement.
On pense qu’Ankur Agarwal a volé et utilisé ces nouvelles technologies pour son activité. Démasqué en 2018 lors d’un audit de sécurité, il a écopé de 12 ans de prison et de 25 000 Dollars d’amende.
Que faut-il en conclure ?
Le piratage de ces 2 entreprises est riche d’enseignements. Dans le cas de la première entreprise, lnkur Agarwal a pu s’introduire sans être détecté. La sécurité physique de l’entreprise a donc une incidence directe sur la sécurité du SI. C’est pour cette raison qu’elle est abordée lors d’un audit de sécurité et ou dans le cadre de la rédaction d’une PSSI.
Dans le second cas, il s’agit d’une vulnérabilité ou plutôt d’un manquement au niveau du système de contrôle d’accès à l’entreprise. En effet, il apparait qu’un même collaborateur pouvait avoir 2 badges actifs au même moment, sans que cela remonte une alerte. La encore, il s’agit d’une anomalie qui aurait pu être détectée en amont par un audit de sécurité.
Aujourd’hui les keyloggers matériels sont de plus en plus faciles à se procurer et on les trouve en vente libre sur Amazon par exemple. En contrepartie, les systèmes de détection d’intrusion dans les SI sont de plus en plus répandus et bon marché. De plus, la sécurité physique a fait des progrès dans les entreprises. Il n’en reste pas moins que si les pentests redteam complets comportent des intrusions physiques c’est parce que c’est un moyen d’accès comme un autre aux secrets de l’entreprise et qu'il reste parfois négligé.
- Anmelden oder Registrieren, um Kommentare verfassen zu können
WWDC Apple 2024: Une collaboration révolutionnaire avec OpenAI ou une menace pour la confidentialité ?

Le 10 juin 2024, Apple a tenu sa conférence annuelle Worldwide Developers Conference (WWDC), un événement attendu avec impatience par les amateurs de technologie du monde entier. Fidèle à ses habitudes, La marque à la pomme a dévoilé les nouveautés pour ses différents systèmes d'exploitation : iOS, macOS, iPadOS, tvOS, visionOS et watchOS.
Parmi les annonces marquantes d’iOS 18, on retient que l’écran d’accueil permettra désormais aux utilisateurs de déplacer les icônes, introduisant ainsi plus d’options de personnalisation. Le mode sombre peut maintenant changer la couleur des icônes et il est possible de choisir un thème de couleurs pour les applications via une roue des couleurs. De plus, un centre de contrôle revu intègrera plusieurs pages pour gérer la musique, la domotique et des raccourcis de manière plus personnalisée.
La protection de la vie privée a également été renforcée avec la possibilité de verrouiller des applications derrière Face ID, de protéger son historique de recherche, ses notifications, et même de cacher des applications dans un dossier dédié. Apple a aussi ajouté la possibilité de choisir les contacts auxquels auront accès certaines applications, tout comme pour les appareils de votre réseau.
Dans Messages, l'introduction du RCS (Rich Communication Services) marque un tournant après plusieurs années de résistance, permettant des discussions plus riches entre utilisateurs d'iOS et d'Android. L'union Européenne y est vraisemblablement pour quelque chose dans cette décision sur ce standard qui marque une évolution des SMS. Toutefois, les possesseurs de matériels Apple pourront continuer à utiliser iMessage entre eux. De plus, les utilisateurs peuvent maintenant envoyer des messages via satellite, et ceux-ci seront chiffrés de bout en bout. D’autres nouveautés prévoient l’organisation des mails par catégorie, l'inclusion de cartes topographiques dans Plans, des paiements facilités via Wallet et un mode jeu amélioré pour une réduire la latence et optimiser la gestion de la chaleur des appareils de la marque.
MacOS Sequoia propose une fonctionnalité particulièrement intéressante, l’iPhone Mirroring, qui permet d’accéder à son iPhone directement depuis son Mac. Cette innovation est la suite logique de la stratégie de convergence des OS qu'Apple a entamé il y a quelques années.
En outre, après les avoir délaissé pendant plusieurs années, Apple remet, non sans considération économique en avant les jeux sur macOS. Cela inclut l'arrivée de nouveaux jeux très attendus et des triples A comme Assassin’s Creed Shadows et Prince of Persia The Lost Crown, démontrant un virage stratégie de la marque qui initialement réservait ses équipements à un usage professionnel et créatif haut de gamme.
En parallèle, iPadOS 18 intègre une nouveauté que l'on attendait plus : L'intégration de la calculatrice (elle est disponible sur iPhone depuis 2007). Cette addition, bien que tardive, se distingue grâce à Math Notes, qui peut résoudre des expressions mathématiques manuscrites.
De plus, iPadOS 18 introduit une autre application, Smart Script qui utilise des modèles de machine learning pour améliorer la prise de notes manuscrites, une fonctionnalité bienvenue, la prise de note étant perfectible sur la tablette d'Apple jusqu'alors.
L’écran d’accueil et le centre de contrôle bénéficient également d’une personnalisation accrue, tandis que SharePlay s’enrichit avec la possibilité de dessiner et d’annoter directement depuis l’écran. SharePlay est une fonctionnalité qui permet de regarder et écouter du contenu, et jouer à plusieurs dans FaceTime sur l'iPhone.
Pour tvOS 18, Apple introduit la fonctionnalité Insight, qui affiche des informations contextuelles sur les contenus Apple TV+. Cette version améliore également les dialogues et propose une meilleure gestion des sous-titres. Quant à visionOS 2 (le système d'exploitation du casque Apple), il apporte des améliorations modestes mais significatives pour le casque Vision Pro, notamment la spatialisation des photos 2D, offrant ainsi une expérience visuelle plus immersive.
Dans le même esprit d'amélioration continue, watchOS 11 continue de transformer l’Apple Watch en un véritable assistant de santé et de sport au poignet. Les nouvelles mesures pour le suivi sportif et de santé sont complétées par des cadrans personnalisés, enrichissant l'expérience utilisateur.
Pour finir, les écouteurs AirPods ne sont pas oubliés. Ils bénéficient de nouvelles fonctionnalités, dont la possibilité de décrocher ou de raccrocher un appel téléphonique par un simple mouvement de tête.
Après avoir dévoilé de nombreuses nouveautés sur ses systèmes d'exploitation, la marque à la pomme a gardé l'annonce la plus attendue pour la fin de la conférence, nous laissant presque nous demander si l'intelligence artificielle serait abordée.
Finalement, Apple Intelligence a été révélée en dernière partie de la WWDC. Cette nouveauté sera intégrée dans les produits Apple à partir d’iOS 18. Les iPhone 15 Pro et Pro Max ainsi que tous les appareils disposant d’une puce M1 ou ultérieur pourront profiter d'Apple AI.
Apple Intelligence promet de simplifier les actions des utilisateurs en permettant d’invoquer une application ou de combiner plusieurs applications par une simple phrase. Par exemple, demander à Siri "Pourrais-je assister à la pièce de théâtre de ma fille lundi prochain ?" permet à l’IA de comprendre le contexte, de savoir qui est votre fille, de regarder votre agenda et de tracer un itinéraire jusqu’au lieu de la pièce.
Apple Intelligence repose sur des IA multimodales capables de prendre en compte le contexte et puiser dans diverses informations pour comprendre les demandes des utilisateurs. Elle apporte des fonctionnalités complémentaires, comme la création d’images, la génération de résumés à partir d’enregistrements.
Apple a également insisté sur la protection des données personnelles, affirmant que contrairement à des serveurs traditionnels, ceux utilisés par Apple ne devraient pas stocker les données personnelles.
Pour finir, une annonce qui a pris les observateurs de cours est la collaboration d'Apple avec OpenAI afin d’intégrer ChatGPT à travers Apple Intelligence.
Cette collaboration soulève des questions, car la politique d'OpenAI en matière de partage de données diffère de celle d'Apple qui a toujours mis un point d'honneur à protéger la vie privée de ses utilisateurs. OpenAI prône une approche plus ouverte et collaborative, ce qui peut entrer en conflit avec la politique stricte d'Apple en matière de confidentialité. Apple devra clarifier comment cette collaboration s'inscrira dans sa stratégie globale sans compromettre la sécurité et la confidentialité des données des utilisateurs, pilier de la marque.
En conclusion, la WWDC 2024 marque un tournant pour Apple, avec une révision globale des tous les OS des produits de la marque, la poursuite de la stratégie d'inter connectivité, le rattrapage du retard sur le segment des jeux vidéo et intégration profonde de l'intelligence artificielle à venir. iOS 18 devrait sortir en septembre 2024
Cette évolution pourrait redéfinir l'expérience utilisateur et renforcer la position d'Apple comme leader de l'innovation technologique, tout en soulevant des questions cruciales sur la protection des données.
- Anmelden oder Registrieren, um Kommentare verfassen zu können
Tags
Lucy, Lucy c'est moi je sais

L'édition 2024 sur rapport LUCY (LUmière sur la CYberassurance) vient de sortir. Toujours plus attendu, il est repris et commenté un peu partout, nous en faisons de même mais sous un autre angle.
Des propos introductifs encourageants certes, mais rappelant que tout de même le marché reste fragile et qu'il faut rester vigilants sont révélateurs d'une direction insaisissable, on ne sait pas où l'on va au fond. Une mention au passage sur l'IA et à la situation géopolitique pour être dans l'air du temps et quelques yakafokon plus loin nous plongeons dans le copieux rapport (à retrouver 👉 ici sur le site de l'AMRAE si vous voulez le télécharger)
Pour notre part, les données issues du rapport LUCY 2024 et l'état du marché, actuel en particulier la situation en souscription, ne nous paraissent pas saines, loin s'en faut.
Considérer qu’une "entreprise assurée est une entreprise qui gère bien son risque cyber aujourd'hui" (c'est écrit dans le rapport) est un expédient pour éviter le fond. C'est vraisemblablement valable pour les grandes entreprises mais très peu probable pour beaucoup d'ETI, les PME et TPE, d'autant qu'il est assez simple de tromper les parcours de souscription, classiques ou automatisés.
Au demeurant, les grandes entreprises qui enregistrent une baisse de 40 % de sinistres et de 45 % des montants indemnisés par rapport à l'année 2022 ont pratiquement toutes été victimes d'une attaque cyber au cours des 5 dernières années (rappelons qu'en 2020, les assureurs avaient indemnisés plus de 201 M€ pour 86 sinistres). Ces données sont donc logiques, le contraire aurait été inquiétant.
On peut donc se réjouir de la prise de conscience et des budgets conséquents investis par ceux qui peuvent (les grandes entreprises). Cette catégorie qui capte un peu plus de 80% des primes encaissées constitue un risque sûr pour au moins les 5 prochaines années à nos yeux et elle continuera à alimenter les capacités de l'assurance cyber.
Autre point qui peut venir étayer l'absence de sinistre majeur, c'est le niveau des franchises des Grandes Entreprises qui continue de progresser (plus de 15 % pour une moyenne de 7,64 M€) et qui fait que nombre d'incidents cyber passe sous le radar. À ce niveau là, En vue des renouvellements, la discrétion reste de mise. Tiens donc, il n'y a pas de nouvelle grande entreprise assurée sur le marché français, étonnant ? Mais où sont-elles ? LUCY ne parle pas des captives cyber, le mot est absent du rapport, mais il n'y a peut être pas de données disponibles.
En revanche, les franchises baissent pour toutes les autres catégories, pour ne pas dire qu'elles plongent (-50% pour les ETI, -70% pour les PME et -81% pour les petites entreprises).
Autre chiffre clé mis en avant et vraisemblablement mal interprété, la baisse de 46 % "du montant total de sinistre enregistrés", comprenez si vous êtes profane, du montant total des indemnités versées (de 70,8M€ en 2022 à 38,1M€ en 2023).
Car le nombre de sinistres entre 2022 et 2023 est passé de 177 à 615, soit une hausse de 247 %, une hausse importante, même si l'on compare à périmètre constant sur le nombre de police souscrite. Si globalement le montant des indemnisations baisse bien, c'est avec de fortes disparités : -48 % pour les ETI pour 37 % de sinistres en moins, contre -12 % pour les petites entreprises avec 1 580% de sinistres en plus.
Que faut-il en déduire ? Pas simple, LUCY travaille avec les données qui lui sont mises à disposition et le rapport a le mérite de livrer beaucoup d'informations utiles. Toutefois, nous ne savons pas par exemple, le nombre de refus de garantie, information importante pour la compréhension globale de l'assurance cyber.
Ainsi la lecture du rapport, nous comprenons qu'il n'y a eu qu'un seul refus de garantie. En effet, le tableau en page 14, indique 615 sinistres mais la page 8 mentionne 614 sinistres indemnisés... Donc un seul refus de garantie? peu probable...à moins que ce soit autre chose.
Quoiqu'il en soit, c'est le bas de segment qui est intéressant, car il a annonce un mouvement déjà à l'œuvre en 2024 dans le milieu de marché.
C'est comme un désir de sinistre
L'augmentation notable constatée du nombre de contrats souscrits sur les segments allant du bas au milieu de marché traduit une dynamique positive certes, mais avec une baisse de capacité, chez les PME et les ETI (à contrario elle augmente légèrement pour les TPE). Quelle en est la contrepartie ? Ce segment de marché fait-il peur ? Pas que. Les assureurs classiques s'alignent ou plutôt essaient de suivre les conditions (tarifaires) des insurtech qui bâtissent leur croissance sur des business modèles bien différents.
En conséquence, les acteurs qui ne portent pas le risque comme le font les assureurs "old school" pour ainsi dire, proposent au marché des conditions tarifaires insoutenables sur des segments qui auparavant leur étaient réservés.
Les belles PME industrielles et les ETI sont maintenant courtisées. Donc, le nombre d'ETI, PME (et de petites entreprises) assurées progresse significativement et le taux de prime baisse de manière anormale sur un segment loin d'être mature ou au mieux, loin de disposer des resources techniques et humaines pour faire face à une crise.
Le fin observateur fera remarquer que le taux de prime pour les ETI est le seul à avoir progressé, lui, (un modeste +7%) par rapport à 2022 avec une augmentation de + 47% des entreprises assurées, là où tous les autres taux baissent (dont un vertigineux et inquiétant -69% chez les petites entreprises). Seulement, chez les mêmes ETI (réputées sûres car assurées), le montant moyen de la franchise a été divisé par 3.
Autant dire qu'au rythme ou vont les choses, de beaux sinistres ne devraient pas tarder à se réaliser. A plus forte raison que ces PME et "petites" ETI sont plus sensibles au risque systémique car elles sont loin, mais alors très loin d'être sécurisées et résiliantes. Combien de serveurs Windows 2008 sont encore en exploitation dans ces entreprises ? Combien de serveur Exchange sont encore on premise ?
"Quantifier les expositions et ne jamais baisser la garde" pour reprendre les mots de l'éditorial du rapport LUCY. En ce premier semestre 2024, ce n'a pas l'air d'être ce qui prévaut. Il reste du chemin à parcourir en prévention, même pour les risques déjà assurés, quelques audits de sécurité informatique ne seraient pas du luxe. .
Les prochains sinistres sont là, chez les PME et les ETI, c'est à dire sur un segment de marché convoité et âprement disputé, pour lequel nous nous interrogeons de plus en plus sur la qualité des portefeuilles. Une situation qui hélas dessert à moyen terme les assurés, qui finiront tôt ou tard, par passer à la caisse.
Enfin, il se murmure que quelques sinistres seraient les bienvenus pour nettoyer ces portefeuilles douteux et permettre un retour à un environnement concurrentiel plus sain que ce qu'il est actuellement. Une chanson mainte fois entendue dans le monde de l'assurance. Le cyber qui manifestement apprend mal de ses erreurs, y échappera t-il ? l'avenir nous le dira.
Lucy... C'est pas marqué dans les livres, Que le plus important à vivre, Est de vivre au jour le jour, Et de faire ses mises à jour.
- Anmelden oder Registrieren, um Kommentare verfassen zu können
Les méthodes de l'ingérence Russe en France : de la désinformation à la manipulation de l'opinion publique

Il y a quelques jour, en consultant des informations en ligne, j'ai vu dans un reportage des banderoles pro-Poutine lors des manifestations indépendantistes en Nouvelle-Calédonie. Ces dernières affichaient des messages appelant à l'aide tels que "Président Poutine, libérez nos colonies".
Je n'ai pas compris le rapport et j'ai voulu en savoir plus sur ce que Poutine, venait faire dans cette histoire à l'autre bout de la terre.
Cela m'a amené à effectuer des recherches qui m'ont menées à conclure que depuis plusieurs années, au même titre que d'autres démocraties, la France fait face à une menace grandissante pour sa souveraineté et sa stabilité : L’ingérence Russe.
Elle prend plusieurs formes, l'une d'entre elles est la manipulation de l’information. Cette stratégie au long court, orchestrée par le Kremlin, vise à semer le trouble, la division au sein de la société française et à influencer les décisions politiques du pays.
Alors, quelles sont les méthodes utilisées et comment faire pour les repérer ?
Ces campagnes de désinformation visent aussi à discréditer les institutions du pays en les présentant comme corrompues ou illégitimes.
Par exemple, le soutien de la Russie à la cause indépendantiste en Nouvelle-Calédonie ne date pas d'hier. Moscou a une longue histoire de soutien aux mouvements anti-coloniaux et anti-impérialistes dans le monde, y compris en Afrique subsaharienne (on l'a vu récemment avec l'emploi du groupe Wagner pour chasser la France de son pré carré).
Ces actions s'inscrivent dans la stratégie plus large de la Russie visant à affaiblir l'influence française dans ses territoires d’Outre-mer.
Ce n’est qu’un des nombreux moyen que le Kremlin utilise. Autre exemple, deux ans après avoir été interdit dans l’Union européenne, la chaine d'information Russia Today France, a refait surface il y a quelques mois. En effet, la branche francophone de la chaîne d’informations russe continue de diffuser sa propagande en direct sur l'internet.
Avant l'intervention Russe en Ukraine, RT France était principalement utilisée comme un outil de "soft power" pour améliorer l'image de la Russie et de sa classe dirigeante. Cependant, depuis son interdiction en 2022 (avec le média Sputnik), la chaîne est devenue une arme de désinformation à part entière selon RadioFrance, diffusant un mélange d'informations fausses et déformées mélangées à des faits avérés (technique classique de manipulation et des complotistes) pour distiller la propagande du Kremlin. Les grands médias occidentaux y sont également régulièrement critiqués et présentés comme des menteurs.
Une autre méthode utilisée par les acteurs de l'ingérence russe en France est la création de faux reportages de médias français. Dans l'un de ces reportages, supposé provenir de TF1, on apprend que les femmes françaises sont invitées à accoucher prématurément pour libérer les lits des hôpitaux pour les JO de Paris 2024.
Dans un autre reportage, présenté comme un article provenant du journal Le Parisien, il est affirmé que les produits anti-punaises de lit auraient contaminé l'eau parisienne, la rendant dangereuse pour la santé. Dans certains cas, de vrais experts sont usurpés pour propager de fausses informations.
Les médias concernés sont évidemment les plus vus, comme TF1, Le Figaro, EuroNews, France 24 et BFMTV. Des fausses informations reliées à ces média sont diffusées sur les réseaux sociaux et les sites web contrôlés par la Russie.
Ainsi, le 28 mars 2024, le ministère français des Armées a dénoncé sur Twitter un site web qui usurpait son identité pour diffuser de fausses informations sur le recrutement de soldats français pour le front ukrainien. Comme par hasard, cette information est sortie peu de temps après que la Russie ait faussement annoncé l'envoi de 2 000 soldats français en Ukraine. Cette information a été fermement démentie par les autorités françaises, qualifiant cette action de "provocations irresponsables" de la part de Moscou. Cependant, le mal était fait, et elle s'est répandue, par tout dans le monde comme une trainée de poudre.
Parallèlement, le Kremlin s'appuie sur une cohorte de propagandistes et de chroniqueurs bien connus tout en étouffant (comme s'est le cas depuis plusieurs années) toute tentative de fournir une information indépendante en Russie. La volonté d'éliminer tout accès à une information indépendante va de pair avec une réécriture de l'histoire et un contrôle des mémoires qui vise à imposer le récit officiel du Kremlin sur la guerre en Ukraine et de manière plus large sur l'Histoire depuis 1992.
En mars 2022, le président russe Vladimir Poutine a annoncé une "guerre de l'information" et a même formé une armée de propagandistes, qui bénéficient d'une formation gratuite pour devenir des correspondants de guerre parfaitement alignés sur les positions du Kremlin, selon Reporters sans frontières (RSF).
Cette nouvelle stratégie de propagande témoigne de la détermination de la Russie à contrôler l'information et à manipuler l'opinion publique, tant à l'intérieur qu'à l'extérieur de ses frontières.
Il est important de rappeler que face à la multiplication des fausses informations et des manipulations de l'information en ligne, il est essentiel de faire preuve de vigilance et de prudence quant aux sources d'information que l'on consulte.
A une époque ou n'importe qui peut être "journaliste", diffuser de l'information, modifier le réel, les événements, qui plus est de manière assez simple avec ou sans IA, ce qui n'était pas le cas il y a 20 ans, il est indispensable de prendre du recul sur tout et d'apprendre à nos enfants à un faire autant.
Tout comme pour le phishing, les tentatives de manipulation de l'opinion publique peuvent prendre des formes diverses et sophistiquées et il est parfois difficile de distinguer le vrai du faux. Il est donc recommandé de croiser les sources d'information, de vérifier la fiabilité et la crédibilité des sites web et des réseaux sociaux consultés. A ce sujet plusieurs sites proposent de récupérer les nouveaux contenus de site d’actualités légitimes.
L'ingérence Russe en France est une réalité et une menace pour la démocratie et la souveraineté nationale. Les méthodes utilisées par le Kremlin sont de plus en plus sophistiquées et insidieuses au point que prises séparément certaines fausses informations paraissent anodines.
Les intérêts de la Russie d'affaiblir les démocraties sont évidents, mais il est possible qu'en France des acteurs locaux en tirent également profit.
Des groupes politiques extrémistes, par exemple, peuvent recycler ces fausses informations pour renforcer leur discours et leur influence. Des intox sont régulièrement en hausse à l'approche d'élections. Par exemple, lors de la dernière présidentielle, il y a eu pêle-mêle la Rolex de Mélenchon, l'annonce du suicide de la femme de Fillon, le militant RN employé de Canal+, Macron le candidat de l'Arabie saoudite, les infirmières françaises agressées par un migrant. Mais on peut aussi ajouter, les faux sondages sur les réseaux sociaux, les fausses informations sur le trucage des élections, le collage de fausses affiches, la fake news de Bardella sur le financement des campagnes par Microsoft et Meta.
Il est donc essentiel de continuer à enquêter, analyser et documenter les mécanismes de l'ingérence, certes afin de mieux les comprendre et identifier acteurs impliqués mais aussi pour y répondre et sensibiliser l'opinion, car l'absence de réponse s'entend aussi comme un acquiescement.
- Anmelden oder Registrieren, um Kommentare verfassen zu können
Avancée technologique vers un futur innovant ou menace de type Skynet (Terminator) ?

Fondée en 1992 et issue du Massachusetts Institute of Technology (MIT), la société Boston Dynamics s'est imposée comme une référence mondiale dans le domaine de la robotique avancée. Connue pour ses innovations spectaculaires et ses robots dynamiques tels que BigDog, un robot quadrupède conçu pour l'armée américaine, l’entreprise a continuellement repoussé les limites de la technologie.
Avec les déploiement déjà réussis de ses robots Spot, conçu pour fournir des informations importantes sur l’état de sites industriels et détecter les situations potentiellement dangereuses et Stretch, conçu pour améliorer l’efficacité et la rapidité dans les entrepôts par sa capacité de manipuler des caisses de tous types et de tûtes tailles, l'entreprise entame aujourd’hui un nouveau chapitre avec l'introduction d'une nouvelle version de son emblématique robot humanoïde destiné aux tâches de recherche et de sauvetage, Atlas, marquant une évolution significative dans la conception et l'application des robots.
Après une décennie de développement et d'innovation avec le célèbre robot humanoïde, l’entreprise Boston Dynamics, désormais une filiale de Hyundai, marque la fin du modèle hydraulique qui a fasciné le monde par ses capacités de danse et de parcours, en passant à un modèle entièrement électrique. Le nouvel Atlas électrique n'est pas seulement une mise à jour technique, mais une réinvention complète. Abandonnant les actionneurs hydrauliques, ce robot adopte une technologie électrique qui lui confère une force accrue et une amplitude de mouvement sans précédent. Atlas électrique est doté de nouvelles variantes de préhenseurs, des dispositif conçus afin de permettre au robot une interaction avec un objet, ainsi que d’outils d'intelligence artificielle, incluant l'apprentissage par renforcement et la vision par ordinateur, qui lui permettent de s'adapter rapidement et efficacement à des situations complexes du monde réel. Ce progrès est soutenu par l'intégration du logiciel Orbit de Boston Dynamics, une plateforme qui centralise la gestion de flotte de robots, des plans de site et des données pour une transformation numérique optimisée.
Boston Dynamics ne vise pas seulement à impressionner la communauté scientifique ou à créer un projet de R&D spectaculaire. L'objectif est de commercialiser Atlas électrique, en collaborant étroitement avec des clients innovants, notamment Hyundai, pour tester et peaufiner les applications du robot dans différents environnements et dans ce cas précis, les sites industriels. Cette démarche vise à garantir que le robot pourra offrir une valeur ajouté réelle et tangible.
L'introduction d'Atlas électrique ouvre de nouvelles perspectives dans divers secteurs, notamment dans le sauvetage (sa mission première). Un exemple concret de ses capacités seraient la recherche des survivants sous les débris lors d’une catastrophe naturelle. La construction est un autre secteur dans lequel il pourrait se voir utile, notamment pour des tâches pénibles qui nécessitent l'assemblage de matériel lourd, améliorant l’efficacité et réduisant les risques de blessures pour les ouvriers. Cette capacité est également transposable dans le secteur de l'industrie manufacturière dans lequel le robot pourraient, en complément, détecter des signes de dysfonctionnement et effectuer des réparations pour améliorer la productivité en minimisant les temps d’arrêt.
Cependant, cette avancée technologique ne vient pas sans son lot de défis et risques. L'un des principaux enjeux réside dans l'autonomie croissante des robots. Bien que cette autonomie soit conçue pour améliorer la performance des robots, elle soulève des questions cruciales sur la sécurité et l'éthique. Le parallèle avec l'IA Skynet de la saga Terminator devient inévitable lorsque l'on considère les risques potentiels liés aux systèmes autonomes intelligents.
Tout d’abord, en terme d’autonomie et de prise de décision, Skynet devient autonome, prend des décisions sans intervention humaine et considère les humains comme une menace.
De manière similaire, (bien qu'Atlas ne soit pas doté de conscience), son autonomie croissante lui permet de prendre des décisions en temps réel pour accomplir des tâches complexes sans intervention humaine. Si cette autonomie n'est pas correctement régulée et surveillée, elle pourrait mener à des actions imprévues et potentiellement dangereuses.
En ce qui concerne les risques de dysfonctionnement ou de piratage, Skynet échappe au contrôle humain. De la même façon, en cas de dysfonctionnement ou de piratage, un robot autonome comme Atlas pourrait causer des dommages. Par exemple, dans un scénario industriel, une défaillance pourrait entraîner des accidents graves, tandis qu'un piratage pourrait convertir Atlas en une menace potentielle, détournant ses capacités pour des actions malveillantes contre l'outil industriel.
La centralisation des données et les cyberattaques représentent un autre risque majeur. Skynet utilise les réseaux et la centralisation des données pour exercer un contrôle total, et de la même manière, les plateformes comme Orbit, qui centralisent la gestion de flottes de robots et leurs données, pourraient devenir des cibles privilégiées pour des cyberattaques. Une intrusion dans ces systèmes pourrait permettre à des attaquants de prendre le contrôle simultané de plusieurs robots, exacerbant les risques de sabotage d'infrastructures critiques.
Enfin, l'impact socio-économique de ces nouvelles technologie reste une préoccupation importante. Skynet cherche à anéantir l'humanité, entraînant une crise existentielle, tandis que l'intégration des robots autonomes comme Atlas, si elle n'est pas gérée de manière éthique et équitable, pourrait entraîner des pertes massives d'emplois et accroître les inégalités économiques et sociales. Il est crucial de prévoir des mesures pour requalifier la main-d'œuvre et assurer une transition technologique juste.
La nouvelle version d'Atlas, toute électrique de Boston Dynamics représente une avancée technologique majeure, offrant des perspectives révolutionnaires dans divers secteurs. Seule une approche responsable permettra de garantir que cette technologie profite véritablement à l'humanité, tout en évitant les scénarios dystopiques décrits dans la science-fiction.
En Europe, la Directive « Machines » 2006/42/CE, ainsi que les normes ISO 10218-1, ISO 10218-2 et ISO TS 15066, offrent un cadre pour la sécurité des robots collaboratifs. L’analyse de risques, telle que décrite par la norme NF EN ISO 12100, est essentielle pour identifier et atténuer les risques liés à l’utilisation des robots.
Les robots tels qu’Atlas doivent être équipés de capteurs sophistiqués afin de détecter au mieux l'environnement et assurer une interaction sécurisée avec les humains.
De plus, les robots doivent obtenir des certifications conformes aux directives européennes et internationales, telles que la Directive Basse Tension (DBT) 2014/35/EU et la Directive Relative à la Compatibilité Électromagnétique (CEM) 2014/30/EU. Ces certifications concernent tout risque de choc électrique ou d’interférence électromagnétique qui pourrait affecter d’autres équipements, compromettre leur fonctionnement ou bien être dangereux pour les humains.
Le nouveau règlement européen 2023/1230, adopté le 14 juin 2023 et qui entrera en vigueur le 20 janvier 2027, remplace la directive 2006/42/CE. Ce règlement considère désormais les logiciels comme des éléments de sécurité essentiels. Cela signifie que les logiciels intégrés dans les machines doivent respecter les mêmes normes de sécurité que les composants matériels et doivent être soumis à des évaluations de conformité européenne pour garantir leur fiabilité et leur sécurité. Il introduit également des exigences strictes en matière de cybersécurité industrielle, garantissant que les machines connectées sont protégées contre les menaces cybernétiques.
- Anmelden oder Registrieren, um Kommentare verfassen zu können
Tags
Est-il encore utile d’apprendre des langues étrangères ?

Présenté en 2016 au CES de Las Vegas, Ili était le premier traducteur de poche en temps réel. Il suffisait de dire une phrase dans sa langue maternelle et elle était traduite instantanément dans la langue de notre choix. Développé par une entreprise japonaise, ce petit appareil qui tient dans la main portait en lui les germes de la révolution qui allait bientôt arriver grâce à l’IA, dans nos téléphones portables et pourquoi pas la téléphonie d’entreprise dans les prochains mois.
Aujourd’hui, avec les derniers développement de l’IA, le secteur de la traduction est en ébullition et les fabricants de téléphones qui ont vite perçu l’intérêt de cette technologie, ne veulent pas rater le train. Mais avant de revenir sur la chute programmée de la barrière de la langue, (de la langue, pas de la culture), faisons un peut d’histoire, car l’Homme a toujours cherché à comprendre son prochain.
Intimement liée à l’Histoire des langues, les première traces connues de traduction remontent à l’Égypte ancienne. Des archéologues ont trouvé des preuves de traduction de textes cunéiformes en hiéroglyphes qui datent de -2 700.A l'origine, les traductions étaient réalisées par des interprètes, le plus souvent dans un cadre diplomatique, politique, puis elles ont par la suite été gravées (vous pensez à la pierre de Rosette).
Les premières traductions dont nous avons la trace (poèmes, comptes, histoires d’autres peuples) ont été réalisées par les Grecs anciens qui par ce biais s’intéressaient à d’autres cultures (pour mieux les assimiler, les conquérir, etc).
Les traductions se sont poursuivies tout au long de l’histoire avec la redécouverte par les Arabes des textes des savants et philosophes antiques, puis elles se sont diffusées au moyen âge après leurs traduction, le plus souvent en Latin par des clercs. Ces travaux de traduction étaient aussi financés par de riches seigneurs qui “protégeaient” des savants ou des artistes. Le travail de ces secrétaires bilingues et traducteurs était important et permettait au seigneur de jouir d’un certain prestige tant il contribuait à la diffusion d’œuvres nouvelles.
Plus proche de nous, les premières expériences de traduction automatiques coïncident avec la période où l’IA devint une discipline académique à part entière (1956). En janvier 1954 eut lieu à New York la première démonstration de traduction sur ordinateur ce qui a déclenché une accélération des recherches, qui prirent une dimension mondiale. La plupart des idées à la fois théoriques et méthodologiques qui présideront au développement du traitement automatique des langues jusqu'à nos jours apparaissent pendant cette première période.
Dans les années 1960-66, l'analyse syntaxique était considérée comme la seule voie de recherche pour la traduction automatique. Les méthodes empiriques et probabilistes ont été abandonnées (avant de revenir), et les méthodes sémantiques par langues intermédiaires ont été négligées.
Dans les années 60, l'analyse syntaxique est donc privilégiée comme la seule voie de recherche pour la traduction automatique. A la fin des années 60, la recherche est abandonnée par manque de financement et probablement à cause aussi du rapport de l’ALPAC (Automatic Language Processing Advisory Committee) qui se montrait très septique sur les progrès futurs de la traduction automatique… l'avenir prouvera le contraire.
Les années 70 voient, grâce au progrès de l’informatique et du traitement du signal, l’apparition des premiers systèmes de reconnaissance de la parole. Dans les années 80, l'introduction des micro-ordinateurs et des traitements de texte a permis la commercialisation de la traduction automatique, notamment grâce aux Japonais.
Enfin, la traduction automatique devient au cours des années 90 un sujet d’entreprise et de compétition économique avec la nécessité de traduire de manière automatique de gros corpus de documentation technique et scientifique. Elle représente aussi un enjeu de conquête de nouveaux marchés.
De nos jours, avec l’IA (ChatGpt) ou encore des sites spécialisés comme Deepl (lancé en 2017), n’importe qui peut traduire ce qu'il souhaite dans un sens ou un autre avec une bonne qualité.
Pour les particuliers et les voyageurs, cela fait plusieurs années que de petits traducteurs électroniques de poche sont disponibles pour les globe-trotter avec plus ou moins de langues embarquées. Ces appareils qui sont comme des dictionnaires portables contiennent une liste de mots (quelques milliers par langues) et des phrases types dans chaque langue disponible. Ils ont eu leur heure de gloire, mais l'arrivée des smartphones et la disponibilité d'internet les a peu peu relégué au placard, même si l'on peut toujours en acheter.
Seulement, en 2016 Ili, lauréat du prix de l’innovation au CES est venu jeter un pavé dans la marre grâce à sa capacité de traduction immédiate. Créé par la société japonaise LOGBAR, le traducteur se présente sous la forme d’une petite télécommande. Il suffit d’appuyer sur un bouton, de parler dans sa langue maternelle et la traduction se fait instantanément (sans connexion). Depuis, on a un peu oublié ce traducteur électronique, avant tout réservé aux voyageurs asiatiques.
Depuis, l'IA est venue rebattre les cartes. Fin 2023, SAMSUNG annonçait l’intégration de l’IA générative dans son prochain téléphone Galaxy (S24) pour permettre, en autres, aux "locuteurs de deux langues différentes de se comprendre immédiatement", via une traduction audio et textuelle en temps réel le géant Coréen annonce que cette technologie fonctionnera avec des téléphones d’autres marques… L’IA de Samsung repose sur le moteur de Google Gemini.
En plus de la traduction vocale en simultanée, l’IA de SAMSUNG permet d’écrire un SMS dans sa langue et de l’envoyer dans une autre langue, ou bien de traduire n’importe quel texte issu d’un document ou d’un site web. Elle possède d'autres fonctionnalités qui sont en train d'être testées et décortiquées par les spécialistes de la tech. Il ne fait pas de doute que les Apple, Huawei et Xiaomi ne tarderont pas à emboiter le pas dans les prochains mois. Pour Apple, on attend les annonces de la prochaine WWDC (Worldwide Developers Conference), qui aura lieu du 10 au 14 juin 2024 ce qui sera l'occasion de découvrir IOS 18… La firme à la pomme répondra-t-elle à SAMSUNG dans les prochaines semaines à cette occasion ?
Les autres secteurs ne sont pas épargnés par le débarquement de l’IA dans la traduction : séries, films, panneaux publicitaires, annonces… L’IA remplacera t-elle les doubleurs, traducteurs et au fond est-il toujours utile d’apprendre une langue étrangère ?
Et bien, ça dépend : Les avancées et les promesses de l’IA sont indéniables et vont faciliter la vie de millions de personnes qui sont souvent confrontées à la barrière de la langue. Pour peu que l’on ait voyagé ou rencontré des étrangers (parfois dans notre pays qui demandaient de l’aide dans la rue), la traduction instantané est un plus.
Côté entreprise aussi, la traduction instantanée devrait permettre de gagner en productivité de manière incontestable. Prenez par exemple, une visioconférence avec vos collègues Allemands, Espagnols et Anglais. L’envoi d’un email à ces mêmes collègues pour résumer la réunion, ou encore la traduction en simultanée de votre rapport d’expertise, ou d’une documentation technique dans un ou des fichiers des langues que vous avez choisies ne devrait plus prendre autant de temps qu'auparavant. Dans ces conditions, quel est l'intérêt d'apprendre encore une langue étrangère
D'un autre côté, on sait aussi que l’apprentissage des langues étrangères présente de multiples avantages. La recherche prouve, par exemple, que les personnes âgées qui parlent plusieurs langues sont moins susceptibles de développer des symptômes de démence sénile. Le cerveau bilingue se laisse également moins distraire et l'apprentissage des langues étrangères améliore aussi la créativité. Apprendre des langues étrangères développe la tolérance (à l’ambiguïté) et la compréhension des cultures (démontré par les chercheurs Hanh Thi Nguyen et Guy Kellogg). A contre courant dans un pays qui n’en fait pas une priorité, l'université de Princeton (USA), a annoncé que tous les étudiants, quel que soit leur niveau de langue quand ils entrent à l'université, devaient désormais apprendre une langue étrangère.
Quoiqu’il en soit, il faut se garder de faire un raccourci vers la compréhension culturelle grâce à ces nouveaux outils. Au quotidien, les champs d’application de l’IA vont se développer pour tous avec pour certain le risque de mettre sous pression les offres de services de traduction que les entreprises paient cher aujourd'hui. Il leur faudra se différencier pour proposer un plus que l'IA n'apporte pas.
Gardons à l’esprit que les mots, les écrits, en fonction de l'intention, de l’intonation, du contexte, du lieu peuvent avoir plusieurs acceptions, sous-entendus qui ne sont pas triviaux et que l’IA pourrait avoir encore des difficultés à traduire et à y déceler les subtilités. Est-ce qu’en fonction du lieu où je l’utilise, l’IA me proposera un pain au chocolat ou une chocolatine ?
Autre point, une langue est vivante, évolutive, des expressions sont à la mode, puis le son plus, des mots rentrent et sortent du dictionnaire tous les ans. Pour le linguiste et le féru d'étymologie, il n'est peut être pas encore le moment de reléguer son Littré, Harrap's ou Robert & Zanichelli au musée...
l’IA ne sonne pas le glas des cours de langues étrangères et il est plutôt judicieux de voir dans ces dernières applications de l'IA un outil pédagogique dont il faut savoir se saisir : facilitation de l’immersion linguistique, enrichissement du vocabulaire. La compréhension instantanée des contenus en langue étrangère contribuera aussi à l'accélération des apprentissages.
Il y a encore un intérêt dans certain métiers et champs de recherche d’apprendre des langues mortes ou encore de chercher à déchiffrer celles qui nous résistent (l'indus, le syllabaire chypro-minoen, l’Etrusque, exemples parmi d'autres). Ironiquement, l’IA pourrait peut-être nous y aider…
- Anmelden oder Registrieren, um Kommentare verfassen zu können
Tags
ClaudeBot d'Anthropic : Un Web Crawler Controversé

Anthropic est une entreprise américaine d'intelligence artificielle (IA) fondée en 2021 par d'anciens membres d'OpenAI, dont Dario Amodei (ex vice-président de la recherche d'OpenAI). La création d'Anthropic est le résultat de désaccords sur la vision stratégique d’OpenAI en son temps et de son partenariat avec Microsoft en 2019.
Anthropic a pris parti de se spécialiser dans le développement d'intelligences artificielles générales et de modèles de langage, avec une philosophie d'entreprise axée sur l'utilisation responsable de l'IA. Cette approche n’a pas manqué d'attirer l'attention et les investissements de géants de la tech tels qu'Amazon et Google, qui ont récemment injecté plusieurs milliards de dollars dans la société.
L'un des projets phares d'Anthropic est Claude, un chatbot semblable à ChatGPT. Claude utilise une interface de messagerie où les utilisateurs peuvent soumettre des questions ou des demandes et recevoir des réponses très détaillées et pertinentes.
Exploration
Un web crawler, également connu sous le nom d'araignée ou de robot d'indexation est un programme informatique qui parcourt le Web en suivant les liens hypertextes d'une page web à une autre. Son objectif principal est d'indexer le contenu de ces pages pour les moteurs de recherche, améliorant ainsi la qualité des résultats de recherche. C’est ce qu’utilise Google et Apple pour Safari par exemple avec leur propre model.(GoogleBot et AppleBot)
Dans le cas d'Anthropic, l’entreprise utilise un web crawler pour entraîner son modèle de langage (LLM, Large Language Models). Le crawler va donc collecter d'énormes quantités de données textuelles à partir de diverses sources en ligne. Ces données sont ensuite utilisées pour former le LLM, lui permettant de comprendre et de générer du langage humain de manière plus précise et naturelle.
Le web crawler d'Anthropic est conçu pour respecter les règles d'exploration définies dans le fichier robots.txt de chaque site web, garantissant ainsi une collecte de données éthique et respectueuse de la vie privée (ce fichier indique aux robots d'exploration d'un moteur de recherche les URL auxquelles il peut accéder sur le site). De plus, l'entreprise s'engage à filtrer et à nettoyer les données collectées pour éliminer tout contenu inapproprié ou préjudiciable, renforçant ainsi l'intégrité et la fiabilité de leur LLM. Cependant, certains administrateurs de site web se seraient récemment plaint du web crawler d’Antropic sur des réseaux.
Droits d'Auteur
De nombreux utilisateurs ont exprimé leur frustration face aux pratiques d'Anthropic et de son bot, ClaudeBot. Un utilisateur en particulier a souligné l'hypocrisie perçue des entreprises qui informent les utilisateurs de ne pas utiliser de textes sous copyright dans leurs entrées, tout en formant leurs modèles avec un mépris flagrant pour les droits d'auteur. Cette situation est vécue comme une injustice, où les règles ne s'appliqueraient qu'aux utilisateurs ordinaires et non aux entreprises.
Un autre utilisateur s’interroge sur le respect par ClaudeBot du fichier robots.txt, un standard utilisé par les sites web pour contrôler l'accès des robots d'exploration. Malgré les instructions spécifiques interdisant à ClaudeBot d'explorer certains sites, il continuerait à le faire, ce qui a poussé certains administrateurs à envisager sérieusement le blocage des adresses IP associées au bot.
Un utilisateur a partagé son expérience de recevoir un trafic massif de bot provenant d'Anthropic. Un autre a exprimé sa frustration envers ClaudeBot, allant jusqu'à demander son blocage. Ces témoignages mettent en lumière les préoccupations et les défis auxquels sont confrontés les propriétaires de sites web et les utilisateurs en raison du comportement agressif de ClaudeBot qui va jusqu’au crash des sites web.
D’un autre coté d’autres utilisateurs ont partagé une observation, notant que ClaudeBot était le principal crawler, dépassant même GoogleBot. tout en soulignant que la gestion du trafic des bots est essentielle dans l'ère de l'IA, expliquant le comportement de ClaudeBot.
Appels à la Régulation
Cette situation soulève des questions importantes sur les droits d’auteurs pour l’apprentissage des AI. Alors que les entreprises insistent sur le respect des droits d'auteur par les utilisateurs de leurs modèles d'IA, il semble y avoir une disparité dans la façon dont elles abordent ce problème lors de l'entraînement de leurs propres modèles.
Les droits d'auteur sont cruciaux pour la protection de la propriété intellectuelle et de la promotion de la créativité. Cependant, à l'ère de l'IA, où les données sont le moteur de l'innovation, il peut être difficile de concilier ces deux impératifs.
D'un côté, il est compréhensible que les entreprises d'IA cherchent à collecter autant de données que possible pour améliorer leurs modèles. D'un autre côté, il est tout aussi légitime que les propriétaires de sites web et les créateurs de contenu protègent leurs œuvres et contrôlent la façon dont elles sont utilisées.
Il est donc nécessaire de trouver un équilibre entre ces deux nécessités. Cela pourrait impliquer des changements dans la façon dont nous pensons les droits d'auteur dans le contexte de l'IA, ainsi que des efforts accrus des entreprises d'IA pour respecter les souhaits et les droits des propriétaires de sites web et des créateurs de contenu.
Face à l'exploration massive d'internet par les bots, il devient impératif pour l'Europe d'accélérer sur la règlementation de l’IA avant que les innovations techniques ne rendent la nouvelle loi (en préparation) dépassées dès sa sortie.
Pour information, le cadre règlementaire a été posé en avril 2021, la proposition de feuille de route en mai 2022, la position de négociation sur la loi sur l’IA adoptée le 14 juin 2023.
- Anmelden oder Registrieren, um Kommentare verfassen zu können
Les menaces invisibles : La vigilance comme rempart contre les attaques indiscriminées

Dans un monde interconnecté où la sécurité numérique devient une priorité croissante, l'histoire d'Onur Aksoy doit servir d'avertissement. Cet individu, impliqué dans l'une des plus grandes opérations de trafic de contrefaçons jamais révélées, a généré 100 millions de dollars en vendant du matériel de réseau informatique contrefait, mettant en péril la sécurité même de l'armée américaine. Cette affaire souligne une vérité souvent négligée : aucun secteur, pas même les institutions militaires parmi les mieux gardées, n'est à l'abri.
Discerner les capacités de l'adversaire
La réalité est que nos adversaires ne recherchent pas toujours un profit direct. Leur objectif peut être de perturber, d'infiltrer ou de compromettre des systèmes essentiels à notre sécurité ou à notre économie, comme le démontre clairement l'affaire Aksoy. Les entreprises, petites ou grandes, peuvent donc être ciblées, non pour leur taille ou leur rentabilité, mais pour leur positionnement stratégique dans une chaîne de valeur plus large.
L'importance de la juste mesure
Il est crucial de ne ni surévaluer ni sous-estimer les menaces. Tomber dans le piège de l'ego peut nous amener à croire que nos systèmes sont trop sophistiqués pour être compromis, une erreur qui peut s'avérer fatale. À l'inverse, sous-estimer les capacités des attaquants peut conduire à une négligence qui ouvre la porte à des intrusions et des attaques. Toutefois, il est tout aussi essentiel de ne pas succomber à une paranoïa paralysante qui pourrait entraver notre capacité à opérer efficacement. Les entreprises doivent donc adopter une posture de sécurité basée sur une évaluation réaliste des risques et des menaces.
La préparation est clé
Face aux menaces ordinaires, l'adoption des meilleures pratiques en matière de sécurité informatique est une première ligne de défense efficace. Cependant, pour les événements extraordinaires et imprévisibles, tels que ceux impliquant des attaquants motivés par des objectifs autres que la rentabilité, une collaboration étroite avec des assureurs compétents et une préparation aux crises sont indispensables. Ces assureurs sont là pour couvrir les pertes potentielles liées à des attaques imprévues, minimisant ainsi l'impact sur l'entreprise. Cela inclut des plans de réponse aux incidents bien conçus, des simulations régulières pour tester la résilience des systèmes et une formation continue des employés sur les meilleures pratiques de sécurité.
Conclusion
L'affaire Aksoy n'est pas simplement un cas isolé, mais un symptôme d'une menace plus large qui pèse sur toutes les organisations. En reconnaissant et en comprenant la nature et l'étendue des capacités de nos adversaires, nous pouvons mieux nous préparer à les affronter efficacement. Il ne s'agit pas seulement de se protéger contre les pertes financières, mais de préserver la confiance dans nos institutions et la sécurité de nos infrastructures critiques.
- Anmelden oder Registrieren, um Kommentare verfassen zu können
L'Intelligence Artificielle dans l'Expertise des Sinistres : Amélioration de la Gestion des Dossiers à Haute Fréquence et à Haute Intensité

Depuis l'avènement de la profession d'expert en sinistres au début du XXe siècle, l'industrie de l'assurance a connu de nombreuses évolutions qui ont progressivement transformé les méthodes de gestion et d'évaluation des sinistres. Initialement, les experts s'appuyaient principalement sur leur expertise technique et des évaluations manuelles pour résoudre les cas. Toutefois, avec l'introduction de l'informatique dans les années 1960 et 1970, le secteur a commencé à adopter des technologies qui simplifiaient la collecte et le traitement des informations.
Aujourd'hui, à l'ère du numérique, l'intelligence artificielle (IA) marque une nouvelle révolution dans le domaine de l'expertise des sinistres. Grâce à l'essor des technologies avancées, l'IA redéfinit le secteur de l'assurance, en particulier dans la gestion des sinistres. Dotée de la capacité de traiter un volume considérable de données à une vitesse exceptionnelle, l'IA apporte des solutions innovantes qui abordent à la fois les sinistres de fréquence, tels que les accidents automobiles légers et les dommages matériels mineurs, ainsi que les sinistres d'intensité, comme les grands sinistres industriels ou les catastrophes naturelles. En intégrant des outils d'analyse prédictive, de traitement automatique du langage naturel et d'apprentissage machine, l'IA améliore non seulement l'efficacité mais aussi la précision des processus d'expertise, transformant ainsi les méthodes traditionnelles en pratiques beaucoup plus agiles et informatisées. Cette transition illustre une étape cruciale dans l'évolution historique des métiers de l'expertise des sinistres, marquant un tournant vers une ère de rapidité et de précision accrues.
Sinistres de Fréquence - Accélération du Traitement par l'IA
Depuis des décennies, l'industrie de l'assurance a été confrontée à une augmentation constante des sinistres de fréquence, tels que les accidents automobiles légers et les dommages matériels résultant de conditions météorologiques extrêmes mais aussi tout un tas de petit sinistres courant chez les particuliers du type dégât des eaux, sinistre électrique, etc.
Historiquement, le traitement de ces réclamations impliquait des procédures manuelles prolongées et souvent sujettes à erreurs humaines, entraînant des retards significatifs dans la résolution des sinistres et une satisfaction client variable. Mais aussi, la question de la viabilité d'envoyer un expert était clairement posée depuis une dizaine d'années. En effet, envoyer un expert faire 80 km en province pour une expertise sur un dégât des eaux suite à un siphon bouché pour un montant de dommage de 800 € n'était pas forcément des plus judicieux, le cout de gestion du dossier étant souvent supérieur au montant des dommages.
C'est dans ce contexte que la télé-expertise s'est développée au milieu des années 2010, ce qui a permis une accélération du traitement des dossiers et des gains de productivité. Les grands cabinets généralistes ont pu répondre à cette de demande des assureurs tout en garantissant une volumétrie suffisante afin que ce service devienne rentable également pour eux.
L'adoption de l'intelligence artificielle (IA) par des géants de l'assurance comme ALLIANZ s'inscrit dans la poursuite de ce mouvement. Cependant, la rupture technologique proposée par l'IA représente une évolution majeure dans la gestion des sinistres.
Depuis 2021, ALLIANZ s'est associé à TRACTABLE, une entreprise pionnière dans l'application de l'IA au secteur de l'assurance, pour déployer un système qui automatise l'analyse et la classification des rapports d'accidents dès leur réception. Ce système évalue rapidement les dommages et détermine si une inspection sur site est nécessaire, permettant ainsi une réduction de 30% du temps de traitement des réclamations. Cette innovation technologique marque une rupture significative par rapport aux méthodes traditionnelles, optimisant l'efficacité opérationnelle et améliorant l'expérience des assurés.
De même, en réponse aux défis posés par les catastrophes naturelles, AXA a mis en œuvre en 2023 une autre solution révolutionnaire développée par SHIFT TECHNOLOGY, une société française spécialisée dans l'IA. Ce système novateur utilise des drones pour survoler les zones sinistrées, collecter des données visuelles et produire des estimations de dommages presque instantanément. Cette approche automatisée non seulement accélère le processus d'évaluation des dommages, mais optimise également les délais de réponse, offrant un avantage significatif en termes de gestion, en particulier lors de catastrophes naturelles.
Même si nous sommes encore aux balbutiements de ces solution, ces développements représentent des jalons importants dans l'évolution de la gestion des sinistres et il est indéniable que l'IA transformera de manière profonde les pratiques traditionnelles de l'assurance.
Sinistres d'Intensité - L'IA en Support à l'Expertise Approfondie
Historiquement, les sinistres d'intensité, tels que les grands désastres industriels, les catastrophe naturelles majeures, ont toujours représenté des défis pour le secteur de l'assurance. L'expertise requise pour démêler les causes et les circonstances de tels événements exigeait des investigations approfondies et souvent fastidieuses, impliquant une analyse manuelle de volumes considérables de documents et de données financières. Ces processus pouvaient s'étendre sur de longues périodes, retardant d'autant les indemnisations et la résolution des dossiers.
Face à ces enjeux, l'introduction de l'intelligence artificielle a marqué un tournant décisif. Depuis 2022, TOKIO MARINE, l'un des leaders de l'assurance en Asie, a intégré l'IA pour transformer radicalement la gestion des sinistres d'intensité. En collaboration avec IBM Watson, l'assureur japonais a déployé une IA capable d'analyser de manière exhaustive les documents comptables des entreprises sinistrées.
Cette technologie avancée permet une évaluation précise et accélérée des pertes d'exploitation, supprimant le besoin d'échantillonnage et offrant une vision complète et instantanée des conséquences financières d'un sinistre (à condition que l'assuré coopère). Cette évolution représente une amélioration significative par rapport aux méthodes traditionnelles, optimisant ainsi les temps de réponse et la précision des évaluations.
En outre, l'IA s'est également révélée cruciale pour accéder et analyser l'historique complet des interactions entre les assurés, les courtiers et les assureurs. En 2021, lors d'un sinistre majeur, l'utilisation de la solution d'IA de SALESFORCES a permis de déceler des détails concernant des réclamations antérieures de l'assuré, ce qui a eu un impact direct sur les décisions relatives à la couverture. Cette capacité d'analyser rapidement et efficacement l'historique des interactions enrichit considérablement la compréhension contextuelle des sinistres, influençant positivement la gestion des risques et la prise de décision. A bien des égards l'analyse de l'historique est tout autant importante pour les assureurs que pour ses prestataires (avocats et experts).
Projections sur l'Évolution des Cabinets d'Expertise avec l'Intégration de l'IA
L'adoption de l'intelligence artificielle (IA) dans l'expertise des sinistres représente bien plus qu'une simple révolution technologique pour le secteur de l'assurance ; elle inaugure une nouvelle ère de transformation profonde dans la manière dont les cabinets d'expertise opèrent et interagissent avec leurs clients.
En traitant efficacement les sinistres de fréquence et en assistant les expert sur l'analyse des sinistres d'intensité, l'IA devrait permettre non seulement un gain de temps considérable, mais aussi une amélioration de la satisfaction des clients.
À l'avenir, on peut s'attendre à voir les cabinets d'expertise évoluer vers des modèles d'affaires encore plus centrés sur l'exploitation de données, où les analyses prédictives et les diagnostics automatisés deviendront habituels.
Ces technologies vont aider les experts non seulement à réagir aux incidents mais aussi à les anticiper, offrant ainsi des conseils proactifs et des solutions de gestion des risques personnalisées. Par exemple, l'IA pourrait permettre de prédire des zones ou des période à fort risque en se basant sur des modèles de données historiques et actuelles, permettant aux assureurs d'ajuster leurs couvertures et leurs tarifs de manière plus dynamique.
Les entreprises comme TRACTABLE, SHIFT TECHNOLOGY, IBM Watson, qui sont déjà à la pointe de cette transformation, continueront de développer des outils qui non seulement optimisent les processus mais améliorent aussi significativement la qualité du service client. L'expansion de l'IA dans les cabinets d'expertise pourrait également conduire à une plus grande personnalisation des services, où les solutions d'IA adaptées spécifiquement à chaque compagnie pourrait être proposées.
L'intégration de l'IA n'est pas seulement une rupture technologique mais peut aussi constituer un progrès de la qualité du service dans le secteur de l'assurance.
La promesse de l'IA de redéfinir les pratiques actuelles, en offrant des opportunités inédites pour les cabinets d'expertise afin de répondre aux demandes des Assureurs et de leurs clients, pourra être tenue, à condition de trouver le juste dosage entre la part laissée à l'IA et celle dévolue à l'expert et à l'expérience qui reste, elle, humaine.
- Anmelden oder Registrieren, um Kommentare verfassen zu können
Le Département de la Justice Américain contre Apple : Monopole ou Pratiques Commerciales illégales ?

La firme de Cupertino se retrouve une fois de plus dans le viseur du Département de la Justice américain. Cette fois accusée de maintenir un monopole illégal sur le marché des smartphones. Cet épisode s'ajoute à une série de critiques qui reprochent à Apple ses pratiques jugées anticoncurrentielles.
Au cœur de cette controverse, le ministère de la Justice pointe du doigt la gestion par Apple des "super applications" comme WeChat, qui concentrent plusieurs services en une seule interface. Selon le département de la justice, Apple bloquerait ces applications polyvalentes pour favoriser une approche segmentée. Toutefois, des experts contestent cette vision, arguant que les utilisateurs occidentaux préfèrent naturellement des applications dédiées pour chaque service. Par exemple des applications comme Uber, qui intègrent plusieurs services sont toujours disponibles sur l'App Store, ce qui semble contredire les accusations d'un blocage systématique.
Un autre grief soulevé par le ministère concerne la manière dont Apple gère l'interopérabilité avec Android, en particulier pour les fonctions de messagerie. La justice reproche à Apple de dégrader volontairement l'expérience des utilisateurs d'Android en imposant des limitations techniques, comme l'absence d'indicateurs de frappe ou de modification des messages ou encore l'envoi de vidéos avec une qualité réduite.
Cependant, ces problèmes découlent en grande partie des différences de protocole entre les SMS d'Android et les systèmes utilisés par Apple. Néanmoins, il est à noter qu'Android a récemment adopté le protocole RCS, qui offre des fonctionnalités avancées similaires à celles d'iOS. Apple a également annoncé qu'elle intégrerait le RCS sur l'iPhone d'ici fin 2024, ce qui devrait améliorer significativement la communication entre les deux écosystèmes, bien que les messages Android continueront d'être affichés sur fond vert sur les iPhones, une pratique que certains pourraient juger discriminatoire.
Enfin, la politique de commissions de l'App Store, où Apple prélève entre 15 et 30 % sur chaque transaction, fait également l'objet de critiques. Bien que ces taux de prélèvement soient courants dans l'industrie, de nombreux développeurs les jugent prohibitifs. Cette frustration est renforcée lorsque l'on considère les applications basées sur des abonnements. En effet Apple perçoit en plus une part des revenus qui selon certains spécialistes, pénalise injustement les concurrents. De fait, des entreprises comme Spotify et Netflix ont opté pour des solutions de contournement, en ne permettant pas l'abonnement direct via leurs applications installées sur iOS pour éviter ces frais.
Cette affaire soulève des questions fondamentales sur les limites des pratiques commerciales d'Apple et leur conformité avec les lois antitrust américaines (qui interdissent aux entreprises d'abuser de leur position dominante). Les décisions de justice à venir pourraient non seulement redéfinir les relations commerciales d'Apple avec ses développeurs et concurrents, mais aussi influencer de manière durable le paysage technologique global. Au moins que cela se règle par un accord avec la justice américaine, comme c'est souvent le cas en matière commerciale.
- Anmelden oder Registrieren, um Kommentare verfassen zu können
Tags
L'assurance des sites de rencontre : Un enjeu de cybersécurité

Tinder, Fruitz, Meetic, Happn, autant de noms de sites de rencontre que vous avez probablement déjà entendus, voire même utilisés. Ces plateformes ont connu une croissance exponentielle ces dernières années, attirant en France 2,3 millions de visiteurs uniques chaque jour en 2023. Depuis la création de la première plateforme de rencontre aux États-Unis en 1995, sous le nom de match.com, l'industrie a continuellement évolué. Toutefois, cette expansion s'accompagne d'une augmentation des risques liés à la cybersécurité.
Les sites de rencontre sont devenus des cibles attrayantes pour les cybercriminels en raison de la quantité de données personnelles et sensibles qu'ils détiennent. Des noms et prénoms aux adresses e-mail et localisations, en passant par les passions et les orientations sexuelles, ces plateformes détiennent une mine d'information. Face à ce constat, une question émerge : comment ces plateformes peuvent-elles se prémunir contre les cyberattaques, et quel est le rôle de l'assurance cyber dans cette démarche ?
Les sites de rencontre sont exposés à une variété de risques. Les violations de données sont l'un des risques les plus courant, où les informations personnelles des utilisateurs, y compris leurs informations financières, peuvent être volées et utilisées à des fins malveillantes. De plus, les sites de rencontre sont également vulnérables aux attaques de type ransomware, où les cybercriminels peuvent verrouiller l'accès aux données et exiger une rançon pour les débloquer.
L'assurance peut jouer un rôle dans la protection des sites de rencontre contre les risques de cybersécurité. Selon un article publié dans Insurance Times, des assureurs proposent des polices d'assurance spécialement conçues pour couvrir les risques uniques associés aux sites de rencontre. Ces polices peuvent couvrir les coûts liés à une violation de données, y compris l'investigation numérique, les notifications aux utilisateurs, la restauration des données et même les sanctions financières d'un authorité de controle.
Par ailleurs, certaines polices d'assurance peuvent également fournir une couverture pour les pertes financières résultant d'une interruption d'activité due à une cyberattaque. Cela peut être particulièrement intéressant pour les sites de rencontre, car une interruption d'activité peut non seulement entraîner une perte de revenus, mais aussi une perte de confiance des utilisateurs, ce qui peut avoir des conséquences à long terme sur la réputation et la pérénité de l'entreprise.
Néanmoins, assurer ces plateformes présente des défis. Les assureurs doivent évaluer avec précision les risques associés à chaque site de rencontre, dont les technologies peuvent varier, ce qui peut être difficile en raison de la nature dynamique et complexe des risques de cybersécurité. De plus, les assureurs doivent également tenir compte des réglementations en matière de protection des données qui peuvent différer considérablement d'un pays à l'autre.
Pour résumé l'assurance joue un rôle déterminant dans la défense des sites de rencontre contre les risques cyber. Il est essentiel que ces plateformes s'adressent à un courtier spécialisé. Une collaboration étroite et en toute transparence est de rigueur pour évaluer leur niveau de maturité en cybersécurité et transférer efficacement le risque résiduel. Avec une stratégie adéquate de sécurité et de couverture, les sites de rencontre peuvent non seulement se protéger mais aussi renforcer la confiance de leurs utilisateurs.
- Anmelden oder Registrieren, um Kommentare verfassen zu können
Morirs II, le premier ver informatique utilisant l’I.A.

Les avancées technologiques ont ouvert de nouvelles portes, mais parfois celles-ci peuvent mener vers des territoires dangereux. Les vers informatiques représentent une menace dans le paysage de la cybersécurité. L'actualité met souvent en lumière les ransomwares, mais les vers peuvent être tout aussi dévastateurs et souvent plus subtils dans leur approche.
Alors, qu'est-ce qu'un ver informatique exactement ? Il s'agit d'un type de logiciel malveillant qui se propage à travers les réseaux en exploitant les vulnérabilités connues pour s'infiltrer dans les machines. Contrairement aux virus, ils ne ciblent pas spécifiquement des systèmes et peuvent se déplacer de manière autonome à travers les réseaux. Leur principal objectif est de se propager le plus largement possible, ce qui les rend particulièrement difficiles à arrêter une fois qu'ils ont infecté un système.
Le premier exemple connu date de 1988 avec le ver Morris. Il s'est illustré de manière frappante en paralysant environ 10 % des machines connectées à l'Internet de l'époque. Depuis lors, les vers informatiques ont évolué, exploitant diverses méthodes d'infiltration, des e-mails aux téléchargements de logiciels gratuits, pour accéder aux systèmes et causer des dommages considérables.
Morris II représente une nouvelle frontière dans le monde de la cybercriminalité. Conçu par Ben Nassi, Stav Cohen et Ron Bitton, ce ver informatique exploite l'intelligence artificielle pour attaquer les assistants de messagerie I.A., tels que ChatGPT et Gemini, et contourner les protections de sécurité pour voler des données sensibles. Pour mieux comprendre comment cela fonctionne, imaginez que vous discutez avec un assistant de messagerie IA.
Le ver envoie un prompt (invite de commande) qui incite l'assistant à répondre en générant un nouveau prompt dans sa réponse, et ainsi de suite. Cela crée essentiellement une boucle où le ver peut se répliquer et se propager à travers les conversations, exploitant les faiblesses des systèmes d'IA pour accéder à des informations sensibles. De plus, les chercheurs ont également découvert une méthode consistant à intégrer cette instruction dans un fichier image, exploitant ainsi une faille dans les systèmes de messagerie électronique qui permet la transmission d'instructions cachées dans des images. Cela permet au ver de se propager de la même manière qu'avec l'invitation textuelle.
La complexité croissante des attaques informatiques, illustrée par l'émergence de vers informatiques sophistiqués comme Morris II, souligne l'importance cruciale de la cybersécurité dans notre ère numérique. Face à cette menace persistante, il est impératif que les entreprises et les utilisateurs adoptent une approche proactive en matière de protection des données et des systèmes, notamment en renforçant leurs défenses contre les attaques basées sur l'intelligence artificielle.
- Anmelden oder Registrieren, um Kommentare verfassen zu können
Le Llyod's alerte sur les risques liés à l'IA générative

Selon le Lloyd's l'impact de l'Intelligence Artificielle Générative sur le paysage cyber devrait accroître la fréquence, la gravité et la diversité des attaques et, à mesure que les menaces évoluent, il est impératif que le secteur de l'assurance soit proactif.
Un nouveau rapport du Lloyd's, la plus ancienne place de marché d'assurance et de réassurance au monde, détaille comment l'évolution rapide de l'IA générative modifie le paysage cyber, exigeant finalement des entreprises qu'elles renforcent une nouvelle fois leur résilience face à des menaces en constante évolution.
Le Lloyd's soutient que les récents progrès de l'IA et en particulier ceux des l'IA génératives (non restreintes) augmente la menace, mais aussi les capacités défensive.
La place de marché tempère cependant ses inquiétudes arguant qu'aujourd'hui l'impact des IA génératives sur la menace cyber reste minime en partie grâce à des mécanismes de sécurité et à une gouvernance efficace des modèles d'IA. La barrière des coûts à l'entrée constitue également un frein, du moins pour le moment, à l'utilisation généralisée par les acteurs de la menace d'IA dédiées.
Le souci est qu'au fur et à mesure que ces technologies deviendront de plus en plus accessibles, le risque augmentera, car les groupes d'attaquants et le monde du crime auront de en plus d'opportunités de les utiliser.
Lloyd's estime que l'impact de l'IA générative sur le risque cyber est susceptible d'augmenter la fréquence, la gravité et de générer aussi une variété d'attaques de plus petite envergure. Pour le Llyod's, il faudra environ 2 ans pour que les entreprises réagissent et pour parvenir à faire stagner les attaques utilisant l'IA, délai estimé pour que les technologies de sécurité et de défense rattrapent leur retard et se diffusent.
L'assurance cyber est l'un des segments les plus dynamique du marché et joue un rôle important dans la résilience des entreprises et de la société. La place de marché souligne la nécessité pour les entreprises et le secteur de l'assurance de prendre des mesures proactives dès maintenant pour faire face aux risques potentiels liés à l'explosion des IA génératives.
"Lloyd's explore les risques complexes et variés associés à l'IA depuis 2016 et ses développements présentent à la fois des opportunités et des menaces pour les entreprises et l'industrie de l'assurance", a déclaré le Dr Kirsten Mitchell-Wallace, Directrice de la Gestion des Risques de Portefeuille, Lloyd's.
"En examinant le paysage des menaces, nous devons rester attentifs aux technologies qui évoluent rapidement, et chercher à profiter au maximum des opportunités qu'elles peuvent offrir.
L'IA générative n'est pas la première, et ne sera pas la dernière technologie disruptive à avoir un impact sur le risque cyber. Il est donc essentiel que les entreprises améliorent la façon dont-elles peuvent atténuer leurs risques, renforcer leur défense et sécurité tout en recherchant un transfert de risques approprié aujourd'hui, plus que jamais auparavant", a-t-elle ajouté.
- Anmelden oder Registrieren, um Kommentare verfassen zu können
Le Digital Markets Act (DMA) : Un nouveau chapitre pour le marché numérique européen

Le 6 mars 2024, le Digital Markets Act (DMA) est entré en vigueur, bouleversant le paysage numérique européen. Cette loi, fruit d'un long processus législatif, vise à rééquilibrer les forces du marché numérique en s'attaquant aux pratiques anticoncurrentielles des GAFAM (Google Amazon Facebook Apple Microsoft), ces grandes plateformes qui dominent nos environnement numériques.
Le DMA est un règlement européen qui s'applique aux GAFAM, c’est-à-dire les plateformes numériques qui occupent une position dominante et servent de passerelles essentielles entre les utilisateurs et les entreprises. Parmi ces plateformes, on trouve les moteurs de recherche, les réseaux sociaux, les systèmes d'exploitation et les plateformes de commerce électronique.
L'objectif principal du DMA est de créer un marché numérique plus équitable, plus ouvert et plus dynamique, au profit des consommateurs, des entreprises et de l’innovation.
L'adoption du DMA est le résultat d'une prise de conscience croissante des dangers liés à la concentration du pouvoir entre les mains de quelques grandes plateformes numériques. En effet, ces plateformes ont acquis une position qui leur permet d'influencer le comportement des utilisateurs et des entreprises, ce qui peut nuire à la concurrence et à l’innovation. Elles peuvent notamment :
- Évincer leurs concurrents en pratiquant des prix choc ou en liant l'accès à certains services à l'utilisation d'autres services.
- Limiter les choix des consommateurs en favorisant leurs propres produits ou services et en restreignant l'accès aux produits et services concurrents.
- Freiner l'innovation en limitant l'accès aux données et en entravant le développement de nouvelles technologies.
Face à ces défis, il est devenu clair qu'une réglementation était nécessaire pour garantir un marché numérique plus équitable et plus dynamique.
Le DMA est le résultat d'un long processus législatif qui a débuté en 2019. La Commission européenne a d'abord présenté une proposition de règlement en décembre 2020. Cette proposition a ensuite été examinée par le Parlement européen et le Conseil de l'Union européenne. Après de longues négociations, le DMA a été finalisé et adopté en juillet 2022. Il est entré en vigueur le 6 mars 2024.
Il reste maintenant à voir comment la loi sera appliquée et quel sera son impact réel sur le marché.
Le DMA impose un certain nombre d'obligations aux GAFAM. Parmi ces obligations, on trouve :
- L'interdiction des pratiques anticoncurrentielles : Les GAFAM ne peuvent pas favoriser leurs propres services ou produits par rapport à ceux de leurs concurrents, ni évincer ces derniers par des pratiques déloyales.
- L'obligation de rendre les services interopérables : Les GAFAM doivent rendre leurs services compatibles avec les plateformes concurrentes, ce qui permettra aux utilisateurs de basculer plus facilement d'une plateforme à l'autre et de profiter d'une meilleure circulation des données.
- Le partage équitable des données : Les GAFAM doivent partager les données qu'ils collectent avec leurs concurrents et les utilisateurs, dans des conditions équitables et non discriminatoires. Cela permettra aux entreprises de développer de nouveaux produits et services et aux utilisateurs de mieux contrôler leurs données personnelles.
- La transparence accrue : Les GAFAM doivent être plus transparents sur leurs algorithmes et leurs pratiques de publicité ciblée. Cela permettra aux utilisateurs de mieux comprendre comment leurs données sont utilisées et de faire des choix plus éclairés.
Le DMA prévoit des sanctions en cas de non-respect de ses obligations. Les entreprises qui enfreignent les règles du DMA peuvent se voir infliger des amendes pouvant atteindre 10 % de leur chiffre d'affaires mondial annuel.
En outre, les autorités de régulation peuvent :
- Ordonner aux entreprises de modifier leurs pratiques
- Interdire certaines pratiques anticoncurrentielles
- Imposer des mesures correctives
Le respect du DMA est donc essentiel pour les entreprises concernées.
Cette nouvelle loi permettant un marché plus équitable aura de nombreux avantages concrets pour les consommateurs. Notamment le DMA permettra aux utilisateurs de :
- Bénéficier d'une plus grande diversité de produits et services numériques. Et découvrir de nouvelles plateformes qui n'auraient pas pu se développer sans le DMA.
- Profiter de prix plus compétitifs grâce à une meilleure concurrence entre les plateformes.
- Mieux contrôler leurs données personnelles et de choisir de les partager ou non avec les plateformes.
- Bénéficier d'une plus grande transparence sur la manière dont leurs données sont utilisées.
- Limiter le pistage et la publicité ciblée non désirés.
- Changer plus facilement de plateforme en emportant leurs données avec eux.
- Avoir plus de choix et de contrôle sur la manière dont leurs données sont utilisées.
Le DMA est un pas important vers un marché numérique plus juste et plus dynamique en Europe. Il est encore trop tôt pour dire quel sera son impact concret, mais il est clair que les utilisateurs ont beaucoup à gagner de cette nouvelle loi.
- Anmelden oder Registrieren, um Kommentare verfassen zu können
La révolution Neuralink : l'entreprise qui veut fusionner le cerveau humain avec la technologie

Neuralink est une entreprise de neurotechnologie fondée en 2016 notamment par Elon Musk. La société a pour mission de développer des implants cérébraux d'interface directe neuronale, qui permettent de connecter le cerveau humain à des ordinateurs et d'améliorer les capacités cognitives.
Les implants de Neuralink sont conçus pour être miniaturisés et intégrés directement dans le cerveau, avec des dimensions de 23 mm de diamètre et 8 mm d'épaisseur. En 2019 et 2020, Neuralink a annoncé avoir implanté des capteurs dans le cerveau d'animaux, leur permettant de contrôler mentalement un ordinateur ou de transmettre des signaux neurologiques.
En 2021, la société a publié leur avancé notamment avec une vidéo montrant un singe jouant à Pong par la pensée, grâce à l'utilisation de la puce de Neuralink.
En janvier 2024, Neuralink a annoncé avoir implanté avec succès un dispositif chez un être humain, marquant une étape importante dans la réalisation de sa vision de l'interface cerveau-machine.
Un projet beaucoup critiqué..
Bien que les avancées de Neuralink soient impressionnantes, la société a également suscité des critiques. En particulier, les affirmations d'Elon Musk sur les applications thérapeutiques et médicales de la technologie, telles que le traitement de l'autisme et de la schizophrénie.
Selon le site d’information Business Insider, ces affirmations ont été accueillies avec scepticisme par la National Autistic Society britannique qui déclare que l’autisme n’est pas une maladie et ne peut être « guérie », de même l’Organisation mondiale de la Santé qualifie la schizophrénie d’un trouble mental grave, ces réponses remettant en question la faisabilité et l'éthique de telles revendications.
De plus, Neuralink a été critiqué pour ses pratiques en matière de bien-être animal. Le site de press Reuters fait état d’environ 1500 animaux tuées durant leur tests depuis 2018, comprenant des moutons, des cochons et des singes.
En 2020, la société a mis fin à sa collaboration avec l'Université de Californie à Davis suite à une plainte du Physicians Committee for Responsible Medicine (PCRM), une association de médecin contre la maltraitance animale, suite à cette plainte ce comité a eu accès à un grand nombre de document détaillant les expériences, documents qui à prouvé une négligence du bien être des animaux selon un Jeremy Beckham membre du PCRM. Neuralink a également été la cible d’une seconde plaintes du Physicians Committee for Responsible Medicine pour maltraitance animale lors d’expérience entre 2017 et 2020, cette nouvelle plainte permettra l’accès à de nouvelles photos et vidéos.
Piratage cérébral : les risques potentiels liés aux implants de Neuralink
Les implants cérébraux de Neuralink soulèvent également des préoccupations en matière de sécurité. Tout système informatique est vulnérable aux piratages et aux attaques, Neuralink pourrait alors rendre les utilisateurs vulnérables à l'espionnage, au vol d'informations personnelles et même à la modification de leur cerveau.
Selon Javier Minguez directeur d’une société de neuro-technologie, Les interfaces cerveau-ordinateur peuvent modifier le cerveau de l’utilisateur. Il est donc crucial que les systèmes préservent l'intégrité physique et mentale de l'utilisateur en garantissant qu'aucun individu non autorisé ne puisse altérer leur fonctionnement.
Il est également souligné que les risques de dommages physiques liés au piratage des implants cérébraux sont une préoccupation importante. Selon le Dr Sasitharan Balasubramaniam, directeur de recherche au sein de l'Institut de technologie de Waterford, le piratage de ces puces ne présente pas seulement des risques au niveau de l'information, mais aussi au niveau des dommages physiques.
Nous sommes donc en droits de nous poser des questions sur les conséquences d'une attaque sur un système comme celui de la puce de Neuralink peuvent être graves et imprévisibles, allant de la perturbation des compétences à des dommages physiques au cerveau, notamment l'endommagement des neurones et la perturbation de la pensée.
En conclusion, Neuralink est une entreprise qui repousse les limites avec des avancées impressionnantes dans le domaine de l'interface cerveau-machine malgré beaucoup de critiques. Cependant, ces avancées soulèvent des préoccupations importantes en matière de sécurité, de bien-être animal et d'éthique. Comme dans l'univers Cyberpunk, nous sommes confrontés à des questions difficiles sur l'avenir de l'humanité et sur les limites de la modification du corps humain.
- Anmelden oder Registrieren, um Kommentare verfassen zu können
Hommage à Akira Toriyama : Une Étoile de la Créativité s'est Éteinte

Aujourd'hui, je prends un moment pour rendre hommage à une légende qui a profondément marqué mon enfance et celle de millions d'autres à travers le monde : Akira Toriyama. Le génie créatif derrière des œuvres emblématiques telles que "Dragon Ball" et "Dr Slump" nous a quittés à l'âge de 68 ans, laissant derrière lui un héritage indélébile dans l'univers du manga et de l'animation.
Né à Nagoya en 1955, Toriyama-san a révolutionné le monde du manga avec "Dragon Ball" en 1984, une série qui, s'inspirant librement d'un roman chinois du XVIe siècle (西游戏 La Pérégrination vers l'Ouest), a su captiver le cœur et l'imagination de générations entières. Son Goku et ses compagnons sont devenus bien plus que des personnages de fiction ; ils sont devenus des icônes culturelles, des symboles de courage, d'amitié et de persévérance.
Avec plus de 260 millions d'exemplaires vendus à travers le monde, "Dragon Ball" ne se limite pas à un succès éditorial. Il a transcendé les frontières, se déclinant en séries télévisées, films, jeux vidéo et bien plus, touchant ainsi des fans de tous âges et de toutes cultures.
La disparition d'Akira Toriyama est ressentie comme une perte immense, non seulement dans le monde du manga mais dans l'ensemble de la communauté artistique. Eiichiro Oda, le créateur de "One Piece", a exprimé sa profonde tristesse face à cette perte, soulignant le "grand vide" laissé par Toriyama-san.
En tant que fan de la première heure, je me sens à la fois triste et incroyablement reconnaissant pour tout ce que Toriyama-san a apporté à notre monde. Ses œuvres ont enrichi notre imaginaire, nous ont enseigné des valeurs importantes et nous ont offert des moments d'évasion inoubliables.
Aujourd'hui, je tiens à exprimer ma gratitude éternelle à Akira Toriyama pour avoir illuminé notre enfance de ses créations magiques. Son œuvre continuera de vivre et d'inspirer de futures générations.
Reposez en paix, Toriyama-san. Votre étoile brillera toujours dans le ciel de notre imaginaire. 🌌
- Anmelden oder Registrieren, um Kommentare verfassen zu können
Apple Révolutionne la Sécurité d'iMessage avec PQ3, le Protocole Cryptographique Post-Quantique.

Apple vient de dévoiler une mise à niveau de la sécurité d'iMessage avec l'introduction de PQ3, un protocole cryptographique post-quantique révolutionnaire. PQ3 représente l'amélioration de sécurité cryptographique la plus significative de l'histoire d'iMessage, élevant la norme de la messagerie sécurisée de bout en bout à de nouveaux sommets.
Ce nouveau protocole PQ3 promet une cryptographie résistante aux compromissions de clés et une défense robuste contre les attaques quantiques les plus sophistiquées, établissant une nouvelle référence en matière de sécurité des messages. Il atteint ce qu'Apple appelle la sécurité de niveau 3, surpassant tous les autres applications de messagerie largement déployées en termes de protections de protocole.
Traditionnellement, les applications de messagerie repose sur l'utilisation de la cryptographie classique, mais ces méthodes de chiffrement ne pourraient ne pas être suffisantes pour résister aux futures menaces de l'informatique quantique. La plupart des applications comme par exemple Skype ou bien Telegram se situent dans les catégories de sécurité de niveau 0 ou de niveau 1 qui ne comportent pas de sécurité quantique. Cependant, avec l'introduction du protocole PQXDH de Signal, suivi par le PQ3 d'iMessage, le paysage évolue.
Depuis sa création en 2011, iMessage n'a cessé d'améliorer ses protocoles cryptographiques. En 2019, il est passé de RSA à la cryptographie sur courbes elliptiques (ECC), renforçant considérablement sa sécurité. Aujourd’hui avec PQ3, iMessage atteint la sécurité de niveau 3 en intégrant la cryptographie post-quantique à la fois dans l'établissement initial des clés et dans l'échange de messages en cours.
PQ3 utilise une conception hybride, combinant des algorithmes post-quantiques avec la cryptographie sur courbes elliptiques existante, garantissant une sécurité maximale. Il utilise l'algorithme Kyber pour les besoins cryptographiques post-quantiques, reconnu par le NIST comme un choix solide.
La clé de l'innovation de PQ3 réside dans son mécanisme périodique de reprise post-quantique, une première pour les protocoles cryptographiques de messagerie à grande échelle. Ce mécanisme génère de nouvelles clés résistantes aux ordinateurs quantiques, renforçant la sécurité tout en minimisant l'impact sur l'expérience utilisateur. Il permet également de se dégager d'une compromission de clés par la génération de nouvelles en cours de discussion, garantissant que les conversations en cours restent sécurisées.
Apple a investi massivement pour assurer la sécurité de PQ3. Le protocole a été soumis à une vérification formelle, subissant un examen rigoureux de la part d'experts en sécurité et de communautés cryptographiques. Ce processus de vérification offre de solides garanties quant aux propriétés de sécurité du protocole.
L'introduction de PQ3 marque une avancée significative dans la sécurité des messages, positionnant iMessage comme le seul service de messagerie largement disponible à atteindre le niveau de sécurité 3. D'après la marque à la pomme cette innovation devrait être intégrée aux prochaines versions d'iOS, d'iPadOS, de macOS et de watchOS, renforçant davantage l'engagement d'Apple envers la confidentialité et la sécurité des utilisateurs.
PQ3 représente un bond en avant dans la sécurisation des communications chiffrées de bout en bout, protégeant la vie privée des utilisateurs contre les menaces actuelles et futures. Avec ses fonctionnalités de sécurité robustes et sa conception rigoureuse, PQ3 s'imposera comme une nouvelle norme de référence pour la sécurité des messages.
- Anmelden oder Registrieren, um Kommentare verfassen zu können
Protéger Vos Entreprises : Pourquoi Former vos Collaborateurs à la Cybersécurité ?

La cybersécurité se positionne comme un pilier essentiel pour garantir la protection des données et des systèmes informatiques. Pour les PME et leurs salariés, investir dans la formation en cybersécurité n'est plus seulement recommandé, mais impératif.
Découvrez dans cet article pourquoi cette démarche peut ouvrir les portes vers un avenir professionnel plus sûr et prometteur pour vos entreprises et leurs collaborateurs.
Des Statistiques Alarmantes
En 2023, les cyberattaques visant les PME et leurs employés ont connu une augmentation significative. Les données récentes montrent une hausse alarmante du nombre d'incidents de sécurité informatique, mettant en péril la stabilité et la réputation des entreprises. Dans ce contexte, la cybersécurité devient un enjeu critique pour préserver l'intégrité des systèmes et données des PME.
Protéger les Données Sensibles de Votre Entreprise
Se former à la cybersécurité est crucial pour vos collaborateurs afin d'acquérir les compétences nécessaires à la protection des données sensibles de votre entreprise. Qu'il s'agisse d'informations financières, de données clients ou de secrets industriels, la cybersécurité constitue la première ligne de défense contre les cybermenaces et les violations de la confidentialité.
Opportunités Professionnelles et Responsabilités
Pour les salariés des PME, la formation en cybersécurité offre également des opportunités professionnelles stimulantes. En devenant des experts en sécurité informatique au sein de leur entreprise, ils contribuent à renforcer la résilience face aux cyberattaques et à protéger les intérêts de l'entreprise. Cette responsabilité accrue peut également ouvrir des portes vers des évolutions de carrière enrichissantes au sein de l’entreprise.
Les Avantages pour les Collaborateurs
Au-delà des avantages professionnels, la formation en cybersécurité offre de multiples bénéfices aux collaborateurs des PME :
- Acquisition de Compétences Pratiques : Développez des compétences concrètes en détection et prévention des cyberattaques, applicables dans le cadre de leur travail quotidien.
- Sensibilisation aux Risques : Apprenez à reconnaître et à prévenir les risques cyber, renforçant ainsi la sécurité globale de l'entreprise.
- Contribution à la Protection Collective : En formant vos collaborateurs à la cybersécurité, vous contribuez à créer une culture de sécurité au sein de votre entreprise, protégeant ainsi l'ensemble de l'organisation contre les cybermenaces.
Conclusion : Investissez dans la Sécurité au sein de votre Entreprise
En résumé, former vos collaborateurs à la cybersécurité représente un investissement nécessaire pour protéger vos PME contre les cybermenaces. En renforçant les compétences de vos équipes, vous contribuez à préserver l'intégrité de vos données et systèmes informatiques, tout en ouvrant des opportunités professionnelles prometteuses pour vos salariés. Ne tardez pas à investir dans la formation en cybersécurité pour assurer un avenir numérique sécurisé pour vos entreprises.
N’attendez plus, réservez votre formation 100% en ligne immédiatement ou contactez-nous sur contact@cnc-expertise.com .
Pour en savoir plus sur nos formations en ligne en cybersécurité adaptées aux PME et à leurs collaborateurs, visitez notre site internet : CnC Formation. Protégez vos entreprises dès maintenant !
- Anmelden oder Registrieren, um Kommentare verfassen zu können
L'E-Sport Prend de Nouvelles Dimensions en 2024

L'année 2024 marque un tournant décisif pour l'univers de l'e-sport, témoignant de son essor et de son ancrage dans la culture populaire mondiale. Avec l'arrivée de nouvelles équipes d'influenceurs telles que les Gentle Mates, emmenées par des figures emblématiques de la scène française comme Squeezie, Gotaga, et Brawks, l'e-sport enrichit son panorama compétitif de talents diversifiés et de personnalités charismatiques, promettant des compétitions plus vibrantes que jamais.
L'industrie voit également l'entrée de sponsors de renom, à l'image d'Alpine, qui s'engage dans le soutien de Rocket League, soulignant l'intérêt croissant de grandes marques pour cet univers compétitif. On peut également citer le CIC partenaire fondateur de la league française de League of Legend qui édite désormais des carte de paiement à l'éffigie des célèbres héros de la license. Ces partenariats illustrent la convergence entre l'e-sport et d'autres secteurs, ouvrant la voie à des collaborations innovantes et à une visibilité accrue pour les compétitions.
En outre, le journal L'Équipe, référence dans le monde du sport, couvre désormais les principaux événements e-sport, signe indéniable de la reconnaissance et de l'intégration de l'e-sport dans le paysage médiatique sportif traditionnel. Cette évolution témoigne de l'attrait grandissant de l'e-sport auprès d'un public plus large et de son importance croissante en tant que discipline compétitive à part entière.
Les audiences des événements e-sport continuent de connaître une croissance spectaculaire, comme en atteste le LEC Winter Split 2024 qui a enregistré une audience record, surpassant celle de l'édition précédente. Ce succès d'audience, attribué en partie au co-streaming, souligne l'efficacité de cette stratégie pour engager la communauté et étendre la portée des compétitions. La grande finale du LEC, qui a vu G2 Esports s'imposer face à MAD Lions KOI, a captivé pas moins de 830 816 spectateurs, marquant ainsi un moment historique pour l'e-sport européen.
L'année 2024 se profile donc comme une ère de consolidation et d'expansion pour l'e-sport, portée par l'arrivée de nouveaux acteurs, l'intérêt de sponsors prestigieux, et une couverture médiatique élargie. Ces évolutions, couplées à des audiences en hausse constante, attestent du dynamisme de l'e-sport et de son potentiel à redéfinir les contours de la compétition et du divertissement sportif à l'échelle mondiale.
- Anmelden oder Registrieren, um Kommentare verfassen zu können
Le Retour Fracassant de LockBit

Moins d'une semaine après son prétendu démantèlement par une coalition internationale, le groupe de hackers LockBit a signé un retour provocateur, affichant déjà une liste de nouvelles victimes, y compris une entreprise française parmi les onze premières cibles. Ce retour marque une nouvelle vague d'attaques dans le monde de la cybersécurité, soulignant la persistance et la résilience des réseaux de ransomware.
En dépit des efforts conjoints des États-Unis, du Royaume-Uni, de la France, et de huit autres pays ayant réussi à perturber temporairement l'infrastructure de LockBit, le groupe n'a pas tardé à réaffirmer sa présence. Sur leur site remis à jour, les hackers ont non seulement listé leurs victimes mais aussi raillé le FBI pour sa lenteur à corriger une faille de sécurité, insinuant des motivations politiques derrière l'opération Cronos.
Parmi les victimes figurent des entreprises américaines de premier plan dans divers secteurs, de l'ingénierie durable à la maintenance aéronautique, soulignant la menace que LockBit continue de représenter pour l'économie globale. Groupe Idea, un acteur majeur de la logistique industrielle basé en France, se trouve également parmi les cibles, illustrant la portée internationale de cette vague d'attaques. La participation active de la France dans le démantèlement précédent de LockBit pourrait expliquer cette sélection.
La liste des victimes s'étend au-delà des frontières américaines, touchant des entreprises en Australie et au Royaume-Uni, et révèle une attaque notable contre le gouvernement du comté de Fulton en Géorgie, où l'ancien président Donald Trump a été brièvement détenu. Cette attaque contre une administration publique américaine met en lumière les implications politiques potentielles des activités de LockBit.
Ce retour en force de LockBit, avec ses attaques ciblées et son attitude défiante, met en évidence les défis continus auxquels le monde de la cybersécurité est confronté. Malgré les victoires temporaires contre ces réseaux de ransomware, la lutte contre la cybercriminalité demeure un combat de longue haleine, nécessitant une vigilance et une coopération internationales soutenues.
- Anmelden oder Registrieren, um Kommentare verfassen zu können
Tags
Cyberattaques Massives : Plus de 33 millions de Français Victimes de Fuites de Données de Mutuelles

Le paysage de la cybersécurité en France est secoué par des cyberattaques massives ayant touché les opérateurs Almerys et Viamedis, exposant les données personnelles de plus de 33 millions de Français.
Selon un communiqué de la CNIL, « les données concernées sont, pour les assurés et leur famille, l’état civil, la date de naissance et le numéro de sécurité sociale, le nom de l’assureur santé ainsi que les garanties du contrat souscrit. »
Comment savoir si mes données ont fuité ?
Si vous êtes concerné, votre mutuelle a dû vous adresser un email, ou un SMS, ou encore un courrier pour vous informer. Dans le cas où vous n'avez pas été contacté mais que vous souhaiter vérifier si vous êtes concerné, vous pouvez contacter directement votre mutuelle. Il est également envisageable de consulter sa carte de mutuelle afin de vérifier si les noms Almerys ou Viamedis y sont mentionnés.
Attention, Ces données sont susceptibles d'être utilisées notamment pour des campagnes d'hameçonnage ou même d’usurpation d’identité comme le mentionne le gouvernement.
Que faire ?
Le gouvernement français a instauré un "formulaire de plainte électronique", accessible sur le site de Cybermalveillance , facilitant le dépôt de plainte. Cette mesure vise à faciliter le dépôt de plainte pour les particuliers, leur permettant d'agir sans se rendre physiquement dans un commissariat ou une gendarmerie.
La Commission Nationale de l'Informatique et des libertés (CNIL) estime que cette attaque, considérée comme l'une des plus massives enregistrées dans le pays, a compromis des informations personnelles de millions de bénéficiaires, telles que l'état civil, la date de naissance, le numéro de sécurité sociale, le nom de l'assureur santé et les garanties du contrat souscrit.
L'ampleur de ces cyberattaques soulève des questions sur la sécurité des systèmes d'information des opérateurs de tiers payant, notamment en ce qui concerne la gestion des identités et de l'authentification.
En effet, les deux prestataires de tiers ont été soumis à une méthode d'attaque similaire, impliquant l'usurpation d'identité et de mots de passe. Étant donné que le dossier est confidentiel et encore récent, très peu d'informations ont été divulguées à ce stade.
Face à cette menace, le parquet de Paris a ouvert une enquête, suscitant également des plaintes des deux prestataires touchés. La CNIL prévoit également de mener des investigations pour évaluer la conformité des mesures de sécurité des prestataires concernés au regards des obligations du RGPD.
En conclusion, ces événements soulignent l'importance cruciale pour les entreprises et les organisations de renforcer leurs stratégies de défense contre les cyberattaques.
La vigilance permanente couplée à des mesures de protection essentielles telles que des logiciels anti-malware robustes, une surveillance continue du trafic réseau, des audits de sécurité réguliers et la formation des collaborateurs deviennent des impératifs face à l'évolution constante des menaces cyber.
- Anmelden oder Registrieren, um Kommentare verfassen zu können
L'AMRAE 2024 : Réflexions sur l'IA et la Cybersécurité dans l'Assurance

L'édition 2024 de l'AMRAE, tenue à Deauville, a marqué un moment clé pour les professionnels de la gestion des risques et de l'assurance, focalisant notamment sur les enjeux liés à l'intelligence artificielle (IA) et la cybersécurité. Organisée par l'Association pour la gestion des risques et l'assurance des entreprises, cette rencontre a offert une plateforme d'échange et de réflexion autour des défis et perspectives du secteur à l'ère numérique.
La ville de Deauville, choisie pour son cadre accueillant, a vu converger vers le Centre International de Deauville des experts, directeurs, assureurs et courtiers, tous animés par la volonté d'approfondir leur compréhension des mutations technologiques en cours. L'événement s'est distingué par son ambiance professionnelle, propice aux échanges fructueux et à la mise en réseau.
Parmi les sujets abordés lors de nos rencontres, l'intelligence artificielle et son impact sur la cybersécurité et les métiers de l'assurance ont occupé une place prépondérante. Les discussions ont mis en évidence une conscience croissante de l'importance de ces technologies pour l'avenir du secteur, tout en soulignant les défis associés à leur intégration, notamment en termes de sécurité des données et de conformité réglementaire.
Les stands et les espaces de rencontre ont été le théâtre de dialogues constructifs sur les possibilités offertes par l'IA dans l'amélioration des processus de gestion des risques et le développement de nouvelles offres d'assurance. Des entreprises telles que LIBERTY, QBE et ZURICH ont partagé leurs expériences et exploré les potentialités de l'IA, depuis l'analyse prédictive jusqu'à la personnalisation des services, reflétant également l'évolution des attentes en matière de cybersécurité.
Le programme de l'AMRAE a équilibré les moments d'échange intense avec des périodes permettant une réflexion plus approfondie sur les implications de l'IA dans l'assurance. Cette organisation a facilité des échanges nourris et la formation de partenariats potentiels, dans un contexte marqué par des avancées technologiques rapides.
Le cocktail organisé en marge de l'événement a permis de renforcer les liens dans un cadre détendu, mettant en lumière des opportunités de collaboration entre le savoir-faire traditionnel en assurance et les innovations technologiques. L'intérêt manifesté par certains participants pour la cybersécurité a illustré les synergies possibles entre les compétences existantes et les nouveaux besoins émergents.
En conclusion, l'AMRAE 2024 a offert entre autres une perspective sur l'impact de l'intelligence artificielle et la cybersécurité dans le secteur de l'assurance, en soulignant les opportunités tout en restant conscient des défis. La rencontre a ainsi contribué à poser les bases d'une adaptation réfléchie du secteur à l'ère digitale, ouvrant la voie à des avancées futures dans la gestion des risques et l'assurance.
- Anmelden oder Registrieren, um Kommentare verfassen zu können
Que contient un audit de sécurité informatique ?

Un audit de sécurité informatique est un examen systématique et méthodique des systèmes et applications d'une organisation afin d'évaluer la robustesse de ses mécanismes de sécurité. L'objectif principal est d'identifier les vulnérabilités et faiblesses qui pourraient être exploitées par des acteurs malveillants et de renforcer la sécurité par la mise en place des recommandations. L'audit permet également d'évaluer la conformité du SI avec la Politique de Sécurité du Système d'Information.
Un audit de sécurité peut être divisé en plusieurs chapitres ou thèmes, notamment :
- Audit de sécurité physique : Évalue la sécurité des installations physiques, comme l'accès aux centres de données, la sécurité des serveurs, etc.
- Audit de sécurité réseau : Analyse la configuration, les équipements (routeurs, pare-feux, etc.) et les protocoles utilisés pour assurer la sécurité du réseau contre les attaques externes ou internes.
- Audit de sécurité des applications : Se concentre sur les logiciels et les applications pour déterminer si des vulnérabilités peuvent être exploitées.
- Audit des politiques et procédures : Évalue si les politiques et procédures de sécurité mises en place par l'entreprise sont adéquates et si elles sont respectées.
- Test d'intrusion (pentest) : Il s'agit d'une approche proactive où des experts en sécurité essaient, avec l'autorisation de l'organisation, de pénétrer ses systèmes pour découvrir des vulnérabilités. Contrairement à un audit de sécurité traditionnel qui peut être plus passif ou basé sur une évaluation, un test d'intrusion est actif et cherche à exploiter réellement des failles.
- Audit de la conformité : Assure que l'organisation respecte les normes et réglementations en vigueur en matière de sécurité informatique.
À la fin de l'audit, un rapport est généralement produit, détaillant les vulnérabilités trouvées, leur gravité, les axes d’amélioration et des recommandations pour les corriger.
La réalisation régulière d'audits de sécurité est cruciale pour les organisations afin de maintenir un niveau de sécurité élevé face à l'évolution constante des menaces informatiques. Un audit de sécurité est généralement recommandé avant de souscrire une assurance cyber car il permet de connaître le niveau de maturité du SI face au risque cyber.
- Anmelden oder Registrieren, um Kommentare verfassen zu können
Airbus enquête sur une fuite de données qui concernerait des milliers de fournisseurs

Le géant européen de l'aérospatiale Airbus a déclaré mardi 12 septembre 2023 qu'il enquêtait sur un incident de cybersécurité suite à des informations selon lesquelles un pirate informatique aurait publié sur le Dark web des données concernant 3 200 fournisseurs de l'entreprise.
Le hacker utilisant le pseudonyme "USDoD" a posté lundi sur BreachForums qu'il avait obtenu l'accès à un portail web d'Airbus après avoir compromis le compte d'un employé d'une compagnie aérienne turque. Le pirate prétendait détenir des informations sur des milliers de fournisseurs d'Airbus, y compris des noms, des adresses, des numéros de téléphone et des courriels, selon un rapport de Hudson Rock.
Un porte-parole d'Airbus, a confirmé que des pirates informatiques s'étaient introduits dans un "compte informatique associé à un client d'Airbus" et que la société enquêtait sur l'incident.
Peu de détails sont connus sur l'acteur de la menace ou ses motivations, mais il a déclaré être membre du groupe de ransomware relativement nouveau connu sous le nom de "Ransomed".
Les entreprises du secteur aérospatial sont régulièrement la cible de pirates informatiques en raison des données et des technologies sensibles qu'elles détiennent.
De manière générale la sécurité informatique des fournisseurs et des partenaires qui interagissent avec le SI d’une entreprise est un enjeu crucial pour se protéger des cyberattaques par rebond.
- Anmelden oder Registrieren, um Kommentare verfassen zu können
France Assureur prend position sur l'IA

Alors que l'IA explose depuis 2022 avec l'apparition de nombreux outils, en particulier Midjourney et ChatGPT, France assureur avait produit un document de position fort intéressant (Pour une utilisation responsable et étique de l'intelligence artificielle dans l'assurance) en janvier 2022, dont nous vous rappelons les grandes lignes.
L’intelligence artificielle (IA) permet aux machines de simuler la pensée humaine et d’effectuer des tâches qui étaient jusqu’à présent l’apanage des êtres humains, telles que la perception et l’analyse des données, l’adaptation au contexte et à l’interlocuteur, la prise de décision et l’apprentissage. L’IA est en plein essor, offrant des opportunités d’innovation et d’efficacité dans de nombreux domaines, y compris l'assurance rappelait France Assureurs.
Même si l'IA est de plus en plus présente dans notre quotidien, la technologie est récente et nécessite une attention particulière. Les échanges avec les assistants vocaux peuvent souvent donner lieu à une mauvaise interprétation des consignes. Les prises de décision automatisées via l’IA peuvent également avoir des conséquences sur la sécurité des personnes, par exemple, l’IA embarquée pour l’aide à la conduite, bref, l'IA reste a parfaire.
Dans le secteur de l’assurance, l’IA offre de nombreux avantages, tels que l’automatisation de tâches répétitives et fastidieuses, l’évaluation des risques, le calcul des primes, l'estimation du coût d'un sinistre, et la personnalisation des services et produits d’assurance pour les clients.
Les innovations digitales bénéfiques pour les assurés comprennent des chatbots conversationnels pour répondre aux requêtes en ligne 24h/24 et 7j/7, des systèmes automatisés d'analyse et de qualification des courriels pour accélérer leur traitement, des solutions de gestion rapide et automatisée de petits sinistres automobiles avec le traitement par l'IA des images du véhicule, et des solutions d’analyse des flux de données issus d'objets connectés pour déclencher une éventuelle intervention humaine.
Pour France Assureur, il est essentiel que tout soit mis en œuvre pour éviter les risques liés à une utilisation non raisonnée de l’IA en assurance. Les assureurs estiment qu'une "IA éthique" en assurance doit être supervisée par l’humain, non biaisée, transparente et explicable. De nombreuses règles françaises et européennes fixent déjà un cadre et des limites à l'utilisation des données par les entreprises du secteur de l'assurance, ce qui permet de concilier la nécessaire protection du consommateur et l'innovation en matière de services.
En avril 2021, la Commission européenne a dévoilé son projet de règlement sur l'utilisation éthique de l'IA et devrait légiférer sur la responsabilité de l'IA en 2022. Les assureurs soutiennent la mise en place d'un cadre réglementaire européen pour une utilisation éthique de l'IA, mais considèrent qu'il est indispensable de veiller au bon équilibre réglementaire. Les mesures disproportionnées, telles que la classification « IA à haut risque » appliquée sans distinction à l'ensemble du secteur de l'assurance, doivent être évitées.
France Assureurs rappelle que "L’intelligence artificielle doit demeurer, pour les entreprises d’assurance, une opportunité d’innovation mise au service de leurs clients."
- Anmelden oder Registrieren, um Kommentare verfassen zu können
L'IA Générative d'Amazon Débarque sur Fire TV

Amazon demeure un acteur incontournable propulsant l'innovation à travers ses diverses plateformes. En tant que géant du commerce électronique et des services cloud, Amazon explore sans cesse de nouvelles frontières technologiques. Cependant, la compétition dans le domaine de l’intelligence artificiel (l’IA) est intense, avec d'autres acteurs du marché développant également des solutions avancées.
Outre ses réalisations reconnues, telles que les assistants vocaux Alexa, Amazon vient d'introduire officiellement la possibilité de créer des images générées par intelligence artificielle sur les appareils Fire TV (écran de télévision alimenté par Alexa).
Cette fonctionnalité est disponible aux États-Unis pour les utilisateurs équipés d'un Fire TV Stick 4K Max de deuxième génération et de la série Fire TV Omni QLED.
La nouvelle fonctionnalité de Fire TV est alimentée par le Titan Image Generator d'Amazon, dévoilé lors de la conférence AWS re:Invent 2023 en novembre dernier. À l'instar d'autres générateurs d'images tels que Stability AI et le DALL-E 3 d'OpenAI, le modèle Titan prend une requête écrite et la transforme en image. Cependant, dans ce cas, la fonctionnalité IA de Fire TV est déclenchée en parlant à Alexa avec la télécommande TV, permettant aux utilisateurs de créer des images avec leur propre voix.
Par exemple, les utilisateurs peuvent dire : "Alexa, crée un arrière-plan d’un château médiéval sur Mars". Ensuite, le générateur produit quatre images que les utilisateurs peuvent personnaliser davantage en choisissant parmi divers styles artistiques tels que l'impressionnisme, l'aquarelle et le fantastique. Après avoir sélectionné une image finale, les utilisateurs peuvent la sauvegarder et l'utiliser comme fond d'écran pour leur télévision.
Bien que le modèle Titan ait la capacité de personnaliser des images existantes, la fonctionnalité de Fire TV ne disposera pas de cette capacité au lancement. Amazon n'a pas fourni d'informations sur la date à laquelle les utilisateurs pourront importer leurs propres photos dans le générateur.
Le générateur d'images fait partie de l'expérience ambiante de Fire TV, transformant la télévision en un écran intelligent qui propose des arrière-plans créés par des artistes ou des photos personnelles provenant du compte Amazon Photos.
Amazon a dévoilé plusieurs mises à jour liées à Fire TV lors de son événement sur les dispositifs de 2023, notamment une amélioration de la recherche vocale permettant aux utilisateurs de poser à Alexa des questions plus spécifiques, telles que la recherche de titres en fonction du casting, des réalisateurs et des genres, voire la description d'une scène de film.
L'introduction de l'IA générative via le Titan Image Generator sur Fire TV par Amazon représente une avancée majeure, permettant la création d'images originales à partir de commandes vocales.
Malgré la concurrence dans le domaine de l'IA, cette fonctionnalité offre des perspectives créatives stimulantes. Bien que la personnalisation d'images existantes ne soit pas encore intégrée, Amazon demeure agile pour répondre aux attentes changeantes des utilisateurs. L'avenir de l'interaction entre l’Humain et la machine semble prometteur.
- Anmelden oder Registrieren, um Kommentare verfassen zu können
Mistral l'IA française qui fait trembler la silicon valley

Une Percée Française dans le Monde de l'Intelligence ArtificielleEn moins d'un an, la start-up française Mistral AI, fondée par des experts formés à Polytechnique et à l'ENS, a fait une entrée remarquable dans le secteur de l'intelligence artificielle.
Avec une récente levée de fonds de 385 millions d’euros, portant sa valorisation à environ 2 milliards de dollars, Mistral AI se positionne comme l'une des entreprises les plus prometteuses dans le domaine de l'IA en Europe.
Innovation et Performance : Le Modèle Mistral
Mistral AI a révolutionné le paysage de l'IA avec son modèle Mistral, surpassant les attentes en termes d'accessibilité et d'efficacité des coûts. Le modèle Mistral, amélioré par la communauté, a atteint des performances exceptionnelles avec Sterling LM 7b alpha, surpassant les modèles de 70 milliards de paramètres. Cette avancée démontre l'engagement de Mistral AI envers l'innovation ouverte et collaborative.
Des Modèles Open Source pour une IA Plus Accessible
Mistral AI se distingue par sa proposition de modèles de langage en open source, alimentés par des données publiques. Cette approche rend l'IA plus accessible et rentable, notamment avec son modèle Mistral moyen, qui promet d'être une alternative efficace à GPT-4 pour les tâches d'inférence. Les modèles ouverts de Mistral AI, qui nécessitent moins de puissance de calcul, peuvent être téléchargés gratuitement, exécutés localement et re-entraînés sur des données spécifiques, les rendant extrêmement puissants et polyvalents.
Dépassement des Frontières et Commercialisation
Mistral AI a déjà publié deux modèles de langage majeurs : Mistral 7B et Mixtral 8x7B. Le premier a été téléchargé plus d'un million de fois, affirmant son efficacité énergétique par rapport à ses concurrents. Le Mixtral 8x7B, quant à lui, promet de dépasser les performances de son prédécesseur tout en égalant celles de ChatGPT 3.5. La start-up se concentre sur la création de modèles plus simples mais tout aussi pertinents, évitant ainsi une course effrénée aux paramètres.
Un Avenir Prometteur pour l'IA Européenne
L'émergence de Mistral AI coïncide avec les efforts de l'Union européenne pour réguler le secteur de l'IA sans freiner l'innovation. La France et l'Allemagne, en particulier, voient en Mistral AI un champion potentiel dans ce domaine. Le gouvernement français, avec des figures comme Cédric O, soutient activement cette nouvelle étoile de l'IA.
Conclusion : Un Nouveau Chapitre pour l'IA en Europe
Mistral AI représente non seulement une réussite française mais aussi un tournant pour l'IA en Europe. Alors que les géants américains comme Google, Amazon, et Meta dominent le secteur, Mistral AI apporte une nouvelle perspective, combinant innovation, accessibilité et performance. Avec son équipe d'experts et son soutien solide, Mistral AI est bien partie pour redéfinir les frontières de l'intelligence artificielle.
- Anmelden oder Registrieren, um Kommentare verfassen zu können
Tags
Pourquoi auditer le Sytème d'information ?

La technologie a un impact considérable sur les entreprises. Les systèmes d'information (SI) qui supervisent la gestion des données, l'automatisation des processus, la communication avec les clients et bien d'autres choses encore sont essentiels à leur fonctionnement. Cependant, de nombreuses organisations sous-estiment encore l'importance du contrôle et de la maintenance en continu de ces systèmes. De plus, les SI sont en constante évolution et les entreprises peuvent rapidement prendre du retard et perdre le fil des avancées technologiques. Même si tout semble sous contrôle, des audits réguliers restent essentiels pour la prévention des cyberattaques.
Tout d'abord, l'audit du système d'information peut s'inscrire dans le cadre d'un audit plus large de l'organisation ou d'un sous-domaine d'une mission d'audit spécifique (projet, processus, transformation, conformité). L'audit du système d'information permettra d'identifier les vulnérabilités potentielles de l'infrastructure, les lacunes de sécurité et les faiblesses qui pourraient être exploitées par les cybercriminels et autres groupes. L'audit peut également mettre en évidence les points à améliorer pour accroître la performance de la fonction et du SI, allant de l'organisation à la gouvernance, en passant par la mise en œuvre de la politique de sécurité et les matrices des responsabilités au sein de l'entreprise.
Les recommandations issues de l'audit permettent à l'entreprise de prendre des mesures préventives pour renforcer sa sécurité face aux risques informatiques (opérationnels, financiers et juridiques). L'audit du SI permettra d'examiner comment les systèmes sont utilisés et d'identifier les procédures obsolètes, les configurations incorrectes, et d'améliorer l'efficacité et la performance de l'outil informatique.
Grâce aux informations recueillies au cours de l'audit, le service informatique peut prendre des initiatives de remédiation pour augmenter la productivité, mettre à jour les politiques et les procédures, tout en contrôlant les coûts et en améliorant la qualité des services. L'un des principaux avantages d'un audit informatique est l'identification des failles de sécurité. En procédant à une évaluation complète, les auditeurs peuvent identifier toutes les faiblesses que les cybercriminels pourraient exploiter.
Un autre rôle essentiel des auditeurs des SI est d'assurer la conformité aux réglementations. Ils évaluent si les pratiques et les systèmes sont conformes aux normes et aux réglementations en vigueur. Les systèmes d'information nécessitent aujourd'hui des investissements constants, tant pour accompagner l'évolution de l'entreprise et sa transformation numérique, que pour sécuriser l'entreprise et gérer son exposition aux risques.
Avant d'engager des moyens importants dans un projet structurant pour l'entreprise, l'audit du SI devient préalable pour vérifier son adéquation avec la stratégie. De même, pour répondre aux exigences de plus en plus fortes des clients et fournisseurs avec lesquels l'entreprise échange des flux, des audits réguliers du système d'information, tant sur les aspects techniques qu'organisationnels, deviennent nécessaires à la prévention des risques et au maintien de l'image de marque.
Enfin, toute opération de fusion-acquisition ne peut pas faire l'impasse sur l'audit de sécurité du SI aux côtés des due diligences juridiques et opérationnelles. L'audit et la sécurité du SI est devenu un sujet stratégique pour assurer la stabilité, la résilience, l'efficacité et la conformité des systèmes d'information et donc de l'organisation. Il permet d'avoir une vision claire des défis potentiels, des opportunités d'amélioration et des risques auxquels l'entreprise peut être confrontée.
- Anmelden oder Registrieren, um Kommentare verfassen zu können
La menace 8Base avec le ransomware Phobos

Le groupe de pirates informatiques 8BASE est monté en flèche sur la scène de la cybercriminalité depuis son émergence en 2022, s'imposant rapidement comme une force notable dans le domaine des ransomwares. En 2023, leur notoriété avait considérablement augmenté en raison de leur méthodologie efficace et de l'impact significatif de leurs attaques sur les victimes. Dès le départ, 8BASE s'est spécialisé dans les ransomwares, en ciblant principalement les petites et moyennes entreprises (PME).
Cette focalisation sur les PME était stratégique, car elle exploitait la vulnérabilité intrinsèque de ces entreprises qui disposent souvent de ressources limitées en matière de cybersécurité. Certains experts ont noté que le groupe avait spécifiquement ciblé des entreprises situées aux États-Unis, au Brésil et au Royaume-Uni. Les secteurs touchés comprenaient les entreprises de l'agroalimentaire, les cabinets d'avocats et les industriels.
En peu de temps, 8BASE s'est hissé dans le top 5 des extorqueurs les plus actifs au niveau mondial. Cette ascension rapide témoigne de leur capacité à exécuter des attaques de ransomware à grande échelle et à échapper à la neutralisation par les forces de l'ordre et les experts en cybersécurité.
En mai 2023, 8BASE a franchi une nouvelle étape dans sa stratégie en choisissant de rendre publiques ses actions, une tactique provocatrice. Ce choix a marqué un changement important dans l'approche opérationnelle du groupe, délaissant la discrétion qui était de mise jusqu'alors.
Le mode opératoire de 8BASE fait appel à toute une série de méthodes sophistiquées. En plus de campagnes de phishing élaborées et de l'exploitation des vulnérabilités des protocoles de communication, le groupe utilise également des logiciels malveillants avancés tels que SmokeLoader et SystemBC. SmokeLoader sert de cheval de Troie pour déposer d'autres charges malveillantes, tandis que SystemBC est utilisé pour dissimuler des communications malveillantes avec des serveurs de commande et de contrôle.
Une fois que le groupe a pu accéder au SI d'une entreprise, il utilise principalement le ransomware Phobos pour chiffrer les données des victimes et exiger le paiement d'une rançon. Le groupe 8BASE pratique la double extorsion, en menaçant de publier ou de vendre les données exfiltrées si la rançon n'est pas payée, ce qui augmente considérablement la pression sur les victimes.
Ils utilisent également une tactique cruciale dans leur arsenal appelée "name and shame", où ils publient les noms des victimes sur leur site ou d'autres plateformes du dark web pour exercer une pression supplémentaire sur ces dernières afin qu'elles paient la rançon.
L’émergence du groupe cybercriminel 8BASE a eu un impact important sur le paysage de la cybersécurité. Leur présence a forcé les entreprises et les organisations à revoir et à renforcer leurs stratégies de défense contre les ransomwares. La menace posée par 8BASE reste une préoccupation majeure pour les experts en sécurité, car le groupe continue d'évoluer et d'adapter ses tactiques à mesure que la cybersécurité évolue également.
En termes de prévention et pour renforcer leur sécurité, les entreprises doivent mettre en place des mesures essentielles de protection comme posséder un logiciel anti-malware robuste, une surveillance continue du trafic réseau, des audits de sécurité réguliers et la formation des collaborateurs.
- Anmelden oder Registrieren, um Kommentare verfassen zu können
Quelle formation pour la cybersécurité ?

Aujourd’hui, la cybersécurité fait partie de notre quotidien. Et pour cause, des cyberattaques surviennent tous les jours dans tous les domaines.
De nombreuses formations en cybersécurité ont vu le jour ces dernières années face à cette recrudescence de cyberattaques et au besoin pour les entreprises de renforcer la sécurité de leur systèmes d’information.
Il y a quelques années, ces formations n’existaient pas et la sécurité du système d’information n'était pas un sujet pour les entreprise.
Depuis, plusieurs cursus sont apparus et aujourd’hui la sécurité informatique et du numérique en général regroupe plusieurs dizaines de métier différents.
Voici quelques parcours possibles pour travailler dans la cybersécurité en fonction de vos critères et de vos envies :
- Le Licence/Bachelor Cybersécurité :
- Durée Formation : 3 ans
Le minimum requit pour être embauché par une entreprise dans le domaine de la cybersécurité. Vous y apprendrez les fondamentaux sur la protection du réseau et de ses données afin de contrer les cyberattaques.
- L'Ecole d’Ingénieur/Expert en Cybersécurité :
- Durée Formation : 5 ou 6 ans
Cette formation s’effectue en 5 ou 6 ans et la spécialisation se fait graduellement en fonction de l'école. Le diplôme en sortie d'étude est reconnu par la CTI (Commission des Titres d’Ingénieurs) pour une Ecole d’ingénieur. Ce qui n’est pas le cas pour une Ecole d’expert.
- La Formation en ligne :
- Durée Formation : Variable
- De nombreux sites de formations en ligne en cybersécurité sont à pourvoir. Certaines gratuites d’autres non. Attention tout de même aux formations payantes qui peuvent être parfois des arnaques.
- Dans certains établissements, il est possible de faire son cursus ou une partie de celui-ci en alternance. Renseignez-vous ! Allier la pratique et la théorique est un bon moyen de gagner rapidement en expérience, ce qui facilitera votre embauche en fin de cursus.
Il est aussi possible de se reconvertir dans la cybersécurité et de se former tout au long de sa carrière. Pour progresser ou pour savoir si cette matière est faite pour vous, commencez par suivre une formation aux bases de la cybersécurité.
- Anmelden oder Registrieren, um Kommentare verfassen zu können
Les nouvelles règles de la SEC compliquent le marché de l'assurance cyber outre Atlantique

Avec l'entrée en vigueur des nouvelles règles de la SEC (Securities and Exchange Commission, l'organisme fédéral américain de réglementation et de contrôle des marchés financiers) en matière de cybersécurité, les entreprises publiques sont de plus en plus contraintes de mettre en œuvre une approche globale de l'évaluation des risques, d'atténuation des pertes et notification des incidents.
L'assurance cyber fait partie de la stratégie de gestion des risques des organisations. Toutefois, l'impact des nouvelles règles de la SEC sur le marché de l'assurance est incertain et les conditions du marché suggèrent que les entreprises devraient commencer à revoir leurs programmes pour se préparer aux nouvelles exigences de déclaration dans les rapports annuels pour les exercices fiscaux.
Les nouvelles règles
Les nouvelles règles couvrent les rapports actuels sur les incidents de cybersécurité et les rapports annuels sur la surveillance et la gestion des risques importants liés aux menaces cyber.
La règle relative à la déclaration des incidents impose la publication d'un formulaire spécifique. Il s'agit du formulaire 8-K dont l'objet est d'informer la SEC et les actionnaires de changement importants survenus dans l'entreprise dans les quatre jours ouvrables suivant la découverte d'un l'incident de cybersécurité important, à quelques exceptions près.
Cette règle exige la mise en place d'un plan d'analyse et de réponse aux menaces cyber qui doit intégrer les obligations de l'entreprise vis à vis de ses polices souscrites. La règle de déclaration annuelle peut engager la responsabilité des membres du conseil d'administration et des dirigeants de l'entreprise.
Le marché de l'assurance cyber
En mai 2023, l'agence de notation Fitch Ratings avait fait état d'une augmentation de plus de 7 milliards de dollars de primes d'assurance cyber directement souscrites en 2022, contre environ 2 milliards de dollars en 2018 avec une demande soutenue.
L'augmentation des besoins due à l'augmentation des incidents, ainsi que l'impact incertain des nouvelles règles de la SEC, force à la main aux entreprises publiques pour qu'elles se dotent de manière proactive de plans de gestion des risques cyber qui inclut la composante assurantielle.
Ces plans doivent tenir compte de la responsabilité de l'entreprise et de ses dirigeants en cas de violation de la vie privée, de fraude, voire de pertes directes dues au paiements des rançon.
Les nouvelles règles de la SEC soulèvent des préoccupations annexes en matière de pertes et de responsabilité, résultant de litiges potentiels sur la conformité et l'adéquation des informations communiquées.
Il faudra donc faire preuve d'une diligence accrue lors de la phase de souscription, par exemple concernant les points suivants :
La responsabilité des Directions : Les actions en justice liées à des produits dérivés et à des titres relèvent généralement du programme d'assurance des administrateurs et dirigeants d'une entreprise. Toutefois, les polices d'assurance des administrateurs et dirigeants peuvent contenir des clauses excluant la couverture des pertes résultant d'une attaque cyber.
D'autres peuvent inclure l'atteinte à la vie privée dans les clauses d'exclusion s'appliquant aux réclamations pour dommages corporels. Bien que certaines polices d'assurance cyber (sur le volet RC) contiennent une couverture limitée pour les Directions d'entreprise, la meilleure solution consiste à anticiper la manière dont ces nouveaux risques liés au non-respect des exigences de déclaration et de divulgation en matière de cyber-risques seront couverts.
Pertes directes : Les nouvelles règles ne définissent pas l'importance relative des cyber-risques, mais un incident peut entraîner de multiples pertes. Le plan de gestion des risques doit prendre en compte la perte ou la corruption de données, les dommages au SI et la perte de marge brute consécutive à un incident cyber. Les entreprises sont également encouragées à réfléchir aux conséquences d'un incident cyber chez un tiers, comme par exemple chez un fournisseur.
L'exactitude des informations : La publication de la stratégie de gouvernance et de gestion des risques en matière de cybersécurité souligne la nécessité d'une coordination au sein de l'entreprise au cours du processus de souscription afin de garantir la cohérence et l'exactitude des informations.
Ingénierie sociale : Malgré de meilleures procédures de sécurité, de la sensibilisation, les pertes dues à l'hameçonnage ou à des escroqueries similaires restent élevées. Les programmes d'assurance doivent être soigneusement revus pour couvrir ce type de fraude.
Réponse coordonnée : De nombreuses polices prévoient un panel d'experts (Enquête, Réponse à incident, Communication, Legal). Si l'entreprise a des fournisseurs privilégiés ou une équipe préexistante qui connaît bien l'infrastructure de cybersécurité de l'entreprise, l'approbation de ces tiers doit être prévue en phase de souscription.
Il ne s'agit là que d'exemples de questions qui devront être coordonnées au fur et à mesure que les programmes de gestion des risques seront adaptés. La souscription de couvertures va devenir probablement plus complexe à mesure que le marché de l'assurance cyber évoluera pour faire face à des environnements réglementaires changeants et au pilotage par les assureurs de leurs produits.
Force est de constater que les considérations outre Atlantique ne sont pas vraiment différentes de celles que nous avons ici. Le respect des exigences de plus en plus complexes en matière de divulgation et des obligations liées aux polices d'assurance nécessite un plan de gestion des risques réfléchi, une veille permanente pour suivre les évolutions (légales, réglementaires, techniques, assurantielles) et des avis de plus en plus pointus de la part de conseillers expérimentés.
- Anmelden oder Registrieren, um Kommentare verfassen zu können
C'est quoi un audit de sécurité informatique ?

L'audit de sécurité informatique est un examen systématique et méthodique des systèmes et applications d'une organisation pour évaluer la robustesse de ses mécanismes de sécurité. L'objectif principal est d'identifier les vulnérabilités et les faiblesses qui pourraient être exploitées par des acteurs malveillants et de renforcer la sécurité en appliquant les recommandations émises. L'audit permet également de garantir la conformité du SI avec la Politique de Sécurité du Système d'Information.
Plusieurs thématiques sont couvertes dans le cadre d’un audit de la sécurité informatique allant de la sécurité physique à la gouvernance. Au terme de l'audit, un rapport détaillant les axes d’amélioration et des recommandations est rédigé.
La réalisation régulière d'audits de sécurité est cruciale pour les organisations afin de maintenir un niveau de sécurité élevé face à l'évolution constante des menaces informatiques.
Un audit de sécurité est également recommandé avant de souscrire une assurance cyber car il permet de connaître le niveau de maturité du SI face au risque cyber.
- Anmelden oder Registrieren, um Kommentare verfassen zu können
Comment former vos collaborateurs en interne ?

Les cyberattaques augmentent rapidement et constituent une menace pour la sécurité des entreprises. À l'ère du numérique, les entreprises et les organisations ont la responsabilité de se protéger contre les pirates informatiques qui trouvent constamment de nouveaux moyens d'accéder aux informations sensibles.
Les déplacements et le travail à distance augmentent la menace et il crucial pour la Direction de développer en interne une culture de la cybersécurité.
La sensibilisation et la formation des collaborateurs représente un enjeux majeur pour la sécurité de l’entreprise. Mais par quoi commencer? quels sont les piliers de la cybersécurité pour les collaborateurs?
Que devait contenir la formation idéale pour aborder en toute sérénité la cybersécurité dans l’entreprise ?
Il y a des chapitres incontournables dans la prévention des cyberattaques :
- Comment concevoir un mot de passe robuste ?
- Comment gérer les mots de passe ?
- Comment reconnaitre et se protéger du phishing ?
- Quels sont les précaution à prendre en déplacement ?
- Quel est l'état de la menace cyber en ce moment ?
- C’est quoi un ransomware, comment ça marche ?
- Détecter l’ingénierie sociale ?
- Les risques liés aux sites internet ?
Chez CnC Expertise, tous ces sujets sont abordés dans notre programme de sensibilisation cyber spécialement développé pour tous les collaborateurs de l’entreprise.
- Anmelden oder Registrieren, um Kommentare verfassen zu können
Pourquoi faire de la sensibilisation cybersécurité ?

La sensibilisation en cybersécurité est essentielle car en cybersécurité le le maillon le plus faible se situe souvent entre la chaise et le clavier.
Une simple erreur comme un clic en trop peut mettre en danger l'intégrité, la confidentialité ou la disponibilité des données et des systèmes. La sensibilisation en cyber est importante :
- Pour Réduire les risques : En sensibilisant les employés aux menaces courantes, tels que le hameçonnage (par des campagnes de phishing en prévention) ou les logiciels malveillants, on peut réduire significativement le risque
- Pour Protéger les actifs de l'entreprise : Les données sont souvent la richesse de l'entreprise. En formant le personnel aux bonnes pratiques de sécurité, les entreprises peuvent mieux protéger ces actifs
- Pour rester Conforme : Les réglementations évoluent et exigent de plus en plus que les organisations forment et sensibilisent leur personnel aux questions de sécurité
- Pour être Réactif : En cas d'incident de sécurité, les employés formés réagiront plus rapidement et efficacement, évitant une aggravation des dommages
- Pour diffuser une Culture de sécurité : La formation et la sensibilisation contribuent à instaurer une culture de sécurité au sein des entreprises, où la sécurité n'est pas seulement la responsabilité du département informatique, mais celle de tous
- Pour suivre l'Évolution des menaces : Le paysage des menaces évolue constamment. La sensibilisation continue aide à garantir que les collaborateurs sont informés des nouvelles menaces
- Pour Garder la Confiance de ses clients : Vos clients veulent savoir que leurs données sont en sécurité. Investir dans la formation en cybersécurité démontre aussi son engagement à protéger les informations de ses clients.
- Pour réduire les Coûts : Bien que la formation et la sensibilisation en cybersécurité représente un coût initial, elle est profitable sur le long terme en sécurisant l’entreprise et en permettant une maitrise des coûts associés à la gestion d’un incident de sécurité en cas de survenance
En sensibilisant tous les collaborateurs aux menaces cyber comme le phishing, la prévention d'une cyberattaque est possible. En inculquant des mécanismes de vigilance et les bons réflexes pour reconnaître et réagir face aux menaces permet de renforcer rapidement sa posture de sécurité globale.
La sensibilisation en cybersécurité est donc une composante essentielle de toute stratégie globale de sécurité du système d’information.
En complément la souscription d’une assurance cyber peut également aider à réduire les risques liés aux incidents de sécurité.
En fin de compte, la sensibilisation, la prévention, la formation en cybersécurité et l'assurance cyber sont des éléments clés pour protéger les entreprises contre les cyberattaques.
- Anmelden oder Registrieren, um Kommentare verfassen zu können
Comment sensibiliser les utilisateurs à la sécurité informatique ?

De nos jours, la prévention des cyberattaques est une priorité majeure pour les entreprises. Toutefois, bien que les systèmes de sécurité informatique soient équipés des dernières technologies de protection, les employés restent un maillon faible. La formation est donc cruciale pour sensibiliser les équipes à la cybersécurité et réduire les risques de cyberattaques.
Voici quelques stratégies efficaces de prévention des cyberattaques :
- Organisez des sessions régulières de formation pour sensibiliser vos employés à la cybersécurité et actualisez-les en fonction des dernières menaces.
- Simulation phishing : simulez des attaques pour que vos employés soient conscients des risques et évitent les menaces à l'avenir.
- Communiquez sur les incidents de sécurité pour renforcer la réalité des menaces et motiver les employés à prendre des précautions.
- Proposez des supports de formation accessibles tels que des brochures, des vidéos ou des webinaires qui détaillent les bonnes pratiques en matière de cybersécurité.
- Encouragez une culture de signalement et assurez-vous qu'il existe un processus clair pour signaler toute activité suspecte.
- Mettez en place des politiques claires concernant l'utilisation des appareils et des réseaux de l'entreprise.
En investissant dans la formation de vos collaborateurs à la cybersécurité, vous pouvez réduire considérablement les risques de cyberattaques et améliorer la sécurité globale de votre entreprise.
- Anmelden oder Registrieren, um Kommentare verfassen zu können
Quand les hackers investissent l'IA

Meta (Facebook, Instagram, WhatsApp) attire l'attention des utilisateurs car des hackers exploitent de plus en plus de l'IA pour les piéger.
Les pirates informatiques utilisent des programmes malveillants présentés comme des outils d'IA avec des interfaces identiques pour piéger les utilisateurs.
Le responsable de la sécurité des systèmes d'information chez Meta, a déclaré lors d'une conférence de presse que depuis mars 2023, 10 groupes de logiciels malveillants se faisant passer pour ChatGPT et d'autres IA afin de compromettre des comptes en ligne avaient été identifiés.
Les acteurs malveillants sont toujours à l'affût des dernières tendances qui peuvent attirer, comme les cryptomonnaies. La capacité de l'interface ChatGPT d'OpenAI à converser de manière fluide avec les humains et à générer du code, des e-mails et des dissertations suscite un engouement massif et peut constituer un biais de vulnérabilité.
Les équipes de sécurité de Meta ont découvert de fausses extensions de navigateurs prétendant contenir des outils d'IA. Certaines de ces extensions incluaient réellement de tels outils, probablement pour paraître crédibles aux yeux des plateformes de téléchargement ou des utilisateurs.
Cependant, une fois téléchargées et installées, elles permettent aux Meta (Facebook, Instagram, WhatsApp) attire l'attention des utilisateurs car des hackers exploitent de plus en plus de l'IA pour les piéger.
Les pirates informatiques utilisent des programmes malveillants présentés comme des outils d'IA avec des interfaces identiques pour piéger les utilisateurs.
Comme d'autres géants de la technologie, le réseau social investit massivement dans l'IA.
Cependant, cette nouvelle vague technologique présente de nombreux risques, tant dans le domaine de la désinformation que du piratage. L'IA doit dont être régulée et l'Europe y travaille depuis 2021. Bien que le temps de la réflexion soit nécessaire, ce temps long n'est pas favorable aux citoyens de l'Union.
L’Union Européenne n’a « pas de temps à perdre » pour réguler l’intelligence artificielle, a déclaré lundi 8 mai la vice-présidente de la Commission européenne Margrethe Vestager, appelant à « vite » adopter un texte qui fait actuellement l’objet de vives discussions au Parlement.
Preuve que le temps est compté, L'IA a bien évoluée depuis 2 ans et les textes en préparations doivent maintenant en tenir compte. Preuve que le temps est compté.
- Anmelden oder Registrieren, um Kommentare verfassen zu können
Retour sur le Cyber-Mois 2023 !

La cybersécurité, un enjeu majeur pour nos sociétés, a pris une place centrale au mois d'octobre 2023 avec le Cybermois, le Mois européen de la cybersécurité. Cette initiative a connu un succès retentissant, réunissant des acteurs nationaux et internationaux au Campus Cyber de la Défense, un lieu dédié à la collaboration dans le domaine de la cybersécurité.
Lancement au Campus Cyber
Un événement de lancement a marqué le début du cybermois, rassemblant des acteurs de la cybersécurité, des entreprises, des associations, et des particuliers. L'occasion a permis de présenter les objectifs du Cybermois et de lancer diverses actions de sensibilisation.
Campagne #CyberResponsable sur les Réseaux Sociaux
Une campagne de sensibilisation a été déployée sur les réseaux sociaux avec le hashtag #CyberResponsable. Cette campagne, axée sur la promotion de bonnes pratiques, a touché un large public, en mettant particulièrement l'accent sur la sensibilsation des jeunes face aux risques liés à la cybersécurité.
Signature de la CharteCyber
Un événement clé du mois a été la signature de la CharteCyber par plus de 100 organisations, comprenant des entreprises, des collectivités territoriales, et des associations. Cette charte encourage la mise en place de huit mesures cruciales, telles que :
- Faire de la cybersécurité une priorité stratégique
- Nommer un référent cybersécurité
- Sensibiliser et former les collaborateurs
- Anticiper les cyberattaques
- Évaluer régulièrement le niveau d’exposition
- S'appuyer sur des fournisseurs certifiés
- Promouvoir les enjeux et bonnes pratiques en matière de cybersécurité.
Cyber Quiz Famille
Pendant le Cybermois, un moment marquant a été le lancement du Cyber Quiz Famille, une initiative ludique visant à sensibiliser tous les membres de la famille aux enjeux de la cybersécurité. Ce quiz, conçu de manière divertissante, offre une opportunité interactive d'apprendre les bases essentielles de la cybersécurité, tout en permettant de remporter des lots attrayants.
Recommandations Essentielles pour les Entreprises
En parallèle, une fiche regroupant 5 recommandations essentielles pour les entreprises a été dévoilée. Cette ressource précieuse propose des conseils concrets destinés aux TPE et PME, visant à renforcer leur protection contre les cyberattaques. Les recommandations comprennent :
- Choisir des mots de passe solides et différents pour chaque service
- Effectuer des sauvegardes régulières et déconnectées des données
- Réaliser des mises à jour rapides de tous les équipements et systèmes
- Rester vigilant face aux messages d'hameçonnage (phishing)
- S'entourer de prestataires de confiance
Bilan du Cybermois 2023 et Perspectives pour le Cybermois 2024
Les résultats du Cybermois 2023 sont significatifs, avec plus de 150 événements sur l'ensemble du territoire, 63 millions d'impressions pour les hashtags #CyberResponsable et #Cybermois, 10 313 participants au Cyber Quiz, et la mobilisation de 550 acteurs. Ces événements ont permis d'atteindre les objectifs qui étaient d'éveiller les consciences, de s'engager pour un monde numérique plus sûr, et promouvoir l'adoption des bonnes pratiques.
Fort de ces résultats, l'ambition pour le Cybermois 2024 est de poursuivre les efforts dans la sensibilisation à la cybersécurité, avec l'objectif de toucher un public encore plus large. La mission demeure inchangée : éduquer, sensibiliser, et inciter à prendre des mesures proactives pour renforcer la sécurité numérique dans nos sociétés en constante évolution.
- Anmelden oder Registrieren, um Kommentare verfassen zu können
Peut-on assurer les NFT ?

Aujourd'hui, il n'y a pas de police d'assurance sur étagère pour couvrir les dommages aux NFT. Les compagnies d'assurance n'ont pas démontré un grand intérêt pour couvrir les NFT. Plusieurs raisons expliquent ces réticences.
La valeur intrinsèque - L'évaluation des NFT est sujette à caution : Contrairement à un bien meuble ou immeuble, dont la valeur sera relativement bien connue (et reconnue), la valeur d'un NFT est beaucoup plus difficile à déterminer dans un marché immature et donc instable. Le niveau de risque financier impliqué dans la couverture des NFT est difficile a appréhender pour une compagnie d'assurance et donc à tarifer. En tout état de cause, il n'y a pas aujourd'hui de modèle standard.
Des actifs disparates ou intangibles - Un NFT est essentiellement deux actifs - l'œuvre d'art ou autre élément auquel le NFT est lié et le jeton NFT lui-même. En fait, dans de nombreux cas, le NFT et l'œuvre d'art sont intangibles - c'est-à-dire qu'ils n'existent pas physiquement. Ils existent numériquement mais peuvent être conservés à des endroits très différents, qui peuvent faire face à des risques différents. Cela complique à nouveau le processus de conception d'une assurance standardisée.
Un futur incertain - Les risques affectant les NFT ne sont pas bien compris et la technologie évolue rapidement, ce qui crée une barrière importante au développement de produits d'assurance. La plupart des assureurs veulent savoir précisément quels risques ils prennent en charge, et s'assurer qu'ils sont stable. Les récentes évolutions des NFT, les vols, les retournements de marché, les phénomène de mode éphémères ont montré que ce n'était pas le cas.
La jeunesse - les NFT sont un domaine très contesté et la robustesse des instruments techniques est régulièrment remise en question.Les personnes qui achètent et vendent ces actifs les considèrent comme une réserve de valeur unique. Cependant, rien n'empêche quelqu'un de créer une copie identique d'un NFT existant. En outre, la manière dont le droit d'auteur pourrait fonctionner dans ce domaine est très mal comprise.
Difficile à appréhender, instable et jeune, il n’y a pas de quoi susciter l’appétit des assureurs. Le “business” des NFT en est qu’a ses début à moins que ce soit déjà la fin. Quoiqu’il en soit, les utilisateurs finaux et les assureurs doivent être mieux informés, car le secteur des NFT est mal compris, à moins d'y être plongé tous les jours.
Il appartient aux propriétaires de ses actifs de mettre en place des stratégies pour atténuer les risques. Ces stratégies pourraient inclure l'utilisation de "cold wallets" sécurisés, qui stockent les actifs numériques hors ligne, ainsi que de "air-gapped wallets", qui isolent les appareils où les NFT pourraient être stockés d'un réseau non sécurisé. Les portefeuilles numériques qui exigent des signatures multiples pour accéder à leur contenu sont une autre option.
A terme, on ne peut pas exclure que des solutions d'assurance émergeront, si au delà du phénomène des "tendances" le marché des NFT réussit sa transformation, muri et qu'une partie des NFT prouve son utilité dans l'économie réelle et la création de valeur.
- Anmelden oder Registrieren, um Kommentare verfassen zu können
95% des NFT ne valent plus rien

Dans le monde des crypto-monnaies, les jetons non fongibles (NFT) se sont imposés comme les stars de ces dernières années. Le battage médiatique a atteint son apogée pendant le cycle haussier 2021/22, avec un volume d'échanges mensuel de près de 2,8 milliards de Dollars en août 2021. Les NFT ont enflammé l'imagination collective dans le monde entier, avec de nombreuses ventes atteignant des des millions de dollars.
Seulement voila, le marché des NFT a radicalement changé... Les données de bloc avaient une valeur négociée hebdomadaire d'environ 80 millions de Dollars en juillet 2023 ce qui représente que 3 % du pic atteint en août 2021. Alors, que s'est-il passé ?
Les NFT ont connu une ascension en flèche, puis un déclin brutal et la vision pour l'avenir dépendra des choix qui seront fait pour faire évoluer le marché. La frénésie n'étant pas durable, le krach était inévitable .
L'état actuel du marché des NFT se caractérise par un ralentissement significatif de l'enthousiasme et un dur retour à la réalité pour les investisseurs. La majorité des NFT n'ont aucune valeur, 95 % des collections de NFT ayant une capitalisation boursière de 0 Ether (ETH). Cela signifie que 95 % des personnes détenant des collections de NFT ont fait un investissements qui aujourd'hui ne vaut rien, zéro, peau de balle, nada.
La Valeur Reste un Problème Majeur
Même en regardant du côté des NFTs les plus cotés, il est difficile de trouver de la valeur.
Un surprenant 18% des collections dites de tête ont un prix plancher de zéro, indiquant qu'une part significative, même des collections les plus en vue, a du mal à maintenir la demande.
41% des NFTs les plus prisés sont modestement tarifés entre 5$ et 100$, ce qui pourrait indiquer un manque de valeur perçue parmi ces actifs numériques. De façon étonnante, moins de 1% de ces NFTs affichent un prix de plus de 6 000$, mettant en lumière la rareté des actifs de grande valeur même au sein des NFT les plus recherchés. Nous sommes désormais loin des transactions à plusieurs millions de Dollars d'il y a 2 ans.
Ces statistiques soulignent non seulement la disparité au sein des hautes sphères du monde des NFT, mais servent également de rappel frappant que tout ce qui brille n'est pas d'or.
La situation pourrait être encore plus sombre que les chiffres le suggèrent. Des facteurs de l'ordre de 750 ont été constatés entre la valeur annoncée (valeur plancher) et les données réelles des transactions. Certains s'accrochent à des évaluations gonflées qui ne reflètent pas le réel intérêt des acheteurs et le montant le prix des ventes.
La demande de NFT est insuffisante pour suivre l'offre, puisque 79 % des collections de NFT restent invendues. Ce déséquilibre entre l'offre et la demande crée un marché d'acheteurs où les investisseurs (quand il y en a) deviennent plus perspicaces, évaluant soigneusement le style, le caractère unique et la valeur potentielle des NFT avant de se décider.
De plus, on sait désormais que l'impact environnemental des NFT n'est pas négligeable Le processus de frappe des NFT consomme beaucoup d'énergie, et l'énergie nécessaire pour frapper environ 200 000 collections de NFT équivaut à l'émission d'environ 16 500 tonnes métriques de CO2.
Le marché des NFT doit évoluer
Une question fondamentale mérite d'être posée : A quoi cela sert-il? Combien de ces NFTs n'ont pas de véritable utilité et sont maintenant redondants ? Sans utilité, ils pourraient être considérés comme "morts".
Même des objets très prisés de Collection Numériques comme le Bored Ape Yacht Club (BAYC) et leurs collections de NFT du Mutant Ape Yacht Club pourraient perdre avec le temps leur valeur s'ils ne servent que de photo de profil ou d'un moyen d'étaler sa richesse.
Pour espérer prospérer et résister aux fluctuations du marché, les NFT doivent soit être historiquement pertinents (comme les cartes Pokémon de première édition), posséder une valeur artistique, encore ou avoir une véritable utilité. Bien que la notion d'art reste discutable, il est logique de penser que beaucoup estiment qu'une grande partie des NFT sur le marché.... n'en est pas.
Les NFT ayant de véritables cas d'application tels que la préservation du patrimoine culturel, l'octroi d'un accès exclusif, la garantie d'authenticité, ou bien la facilitation des échanges d'actifs dans des jeux, la garantie de l'unicité des actifs numériques ou encore la fourniture d'aperçus de données et de prédictions, ont tendance à conserver leur valeur.
En résumé pour durer, l'avenir des NFT doit reposer non pas sur la spéculation, mais sur la valeur et l'utilité réelles qu'ils apportent à leurs détenteurs. A partir de ce moment, il pourra être pertinent de se poser la question de leur assurabilité. On en parlera dans notre prochain article.
- Anmelden oder Registrieren, um Kommentare verfassen zu können
Les crimes relevant de la cyber-guerre bientôt poursuivis par la CPI?

Les outils utilisés pour commettre de graves crimes internationaux évoluent constamment - des balles, des bombes, les réseaux médias sociaux et peut-être maintenant l'intelligence artificielle. Alors que les États et d'autres acteurs ont de plus en plus recours à des opérations dans le cyberespace, ce nouveau moyen de diplomatie et de guerre, en pleine expansion, peut être détourné pour commettre ou faciliter des crimes de guerre, des crimes contre l'humanité, un génocide, et même l'agression d'un État contre un autre.
Alors que le paysage qui nous entoure évolue, la justice pénale internationale doit elle aussi s'adapter. Bien que le Statut de Rome (traité international qui a créé la CPI en 1998) ne contienne pas de dispositions spécifiques consacrées aux cybercrimes, ceux-ci entrent dans le champ d'application de nombreux crimes internationauxn tels qu'ils sont déjà définis. Le Comité international de la Croix-Rouge a souligné que les cyberattaques doivent respecter les principes cardinaux de distinction et de proportionnalité, et ne doivent être dirigées que vers des cibles militaires.
De nombreux États s'accordent à dire que le cyber espace ne doit pas être à l'abri de toute réglementation, et que le droit international y a un rôle essentiel à jouer. Karim A.A. Khan, procureur à la Cour pénale internationale, estime que la loi doit agir pour ceux qui sont les plus vulnérables - Les lignes de front ne sont pas seulement physiques, mais aussi numériques. Elles ont la capacité d'infliger des dommages et de créer des souffrances comparables aux raisons mêmes pour lesquelles la CPI a été fondée.
La cyber-guerre n'est pas abstraite. Au contraire, elle peut avoir un impact profond sur la vie des civils. Les tentatives visant à impacter des infrastructures critiques telles que les installations médicales ou les systèmes de contrôle de production d'énergie peuvent avoir des conséquences immédiates pour beaucoup, en particulier les plus vulnérables. Par conséquent, Karim A.A. Khan indique que dans le cadre de ses enquêtes, le bureau du procureur de la CPI recueillera et examinera les preuves de ces agissements.
Les cyber-opérations sont parfois utilisées dans le cadre d'une stratégie dite "hybride" ou "zone grise". Ces stratégies visent à exploiter l'ambiguïté et à opérer dans une zone difficile à définir ; entre la guerre et la paix, le légal et l'illégal, les auteurs étant souvent cachés derrière des acteurs intermédiaires. Ce phénomène nécessite une réponse de l'ensemble de la société, rassemblant des fonctions et des capacités distinctes pour agir de manière coordonnée. Au niveau international, la compétence de la CPI - clairement définie et complémentaire aux juridictions plus larges des États - peut servir pour apporter une réponse collective.
En particulier, en tant que centre d'un système de justice internationale dans lequel les États, la société civile et les organisations internationales jouent chacun leur rôle, la CPI peut apporter plusieurs contributions. Par ses propres procédures visant à garantir la responsabilité juridique, la CPI peut dissuader les contrevenants. Ces procédures peuvent également aider à atténuer l'ambiguïté des stratégies hybrides en renforçant le droit applicable et en déterminant la vérité de manière fiable et proéminente. Le Bureau du procureur peut également jouer un rôle de soutien ou de coordination, non seulement en enquêtant en vue de poursuites devant la CPI, mais aussi en soutenant les États et d'autres organisations.
À tous égards, la coopération est essentielle. Il est indispensable que la CPI établisse et renforce des partenariats non seulement avec les États mais aussi avec les entreprises. era à l'élaboration d'un document de politique par le Bureau.
L'intensité et la fréquence croissantes des cyber-opérations soulignent également l'importance de développer et d'améliorer les pratiques opérationnelles de la CPI. Cela inclut de garantir que la CPI est correctement défendue contre les cyber-opérations. La désinformation, la destruction, la modification des données et la divulgation d'informations confidentielles peuvent entraver l'administration de la justice à la CPI et, en tant que telles, constituer des crimes relevant de la juridiction de la CPI qui pourraient faire l'objet d'enquêtes et de poursuites.
Même des visionnaires tels qu'Albert Einstein sont réputés avoir craint que la technologie ne finisse par dépasser notre humanité.Sans aucun doute, nous serons mis à l'épreuve. Mais grâce à nos efforts communs - et surtout la conviction que nous pouvons mobiliser le droit sur ces nouvelles lignes de front pour rendre justice - nous pourrions collectivement garantir la création d'un monde plus humain. La CPI jouera son rôle, maintenant et pour les années à venir.
- Anmelden oder Registrieren, um Kommentare verfassen zu können
C'est quoi une cyberattaque ?

Une cyberattaque est une offensive menée par des acteurs malveillants visant à compromettre, voler, exposer, modifier, désactiver ou détruire des données et systèmes informatiques.
Elle s'effectue via un accès non autorisé à des systèmes informatiques, des réseaux, des infrastructures, des appareils personnels ou des smartphones. Les attaquants peuvent être des individus isolés, des groupes de hackers, des organisations criminelles, voire des États-nations, avec des motivations variées, allant du simple vol d'informations à l'espionnage industriel, le racket, le sabotage, ou la perturbation des services.
Types et vecteurs d'attaques
Les attaques peuvent revêtir différentes formes et exploiter divers vecteurs :
- Hameçonnage (Phishing) : Cette technique implique l'envoi d'e-mails frauduleux qui semblent provenir d'une source légitime, dans le but d'amener les destinataires à fournir des informations sensibles comme des mots de passe ou des numéros de carte de crédit.
- Attaque par déni de service (DDoS) : Ici, les attaquants inondent un système ou un réseau de trafic pour le rendre inopérant et indisponible pour les utilisateurs légitimes.
- Logiciel malveillant (Malware) : Il s'agit de programmes malveillants conçus pour infiltrer ou endommager un système informatique. Cela comprend les virus, les vers, les chevaux de Troie et les ransomwares.
- Attaque de l'homme du milieu (Man-in-the-Middle) : Dans cette attaque, les cybercriminels interceptent et modifient la communication entre deux parties sans que celles-ci ne s'en rendent compte.
- Injection SQL : Cette attaque se produit lorsque un attaquant insère ou "injecte" du code dans une requête SQL. Cela peut permettre à l'attaquant d'accéder, de modifier ou de supprimer des données dans une base de données.
- Attaque par force brute : Cette technique consiste à tenter d'accéder à un système ou à un compte en essayant toutes les combinaisons possibles de mots de passe jusqu'à trouver le bon.
Une cyberattaque se déroule en plusieurs étapes, telles que la reconnaissance, l'exploitation de vulnérabilités, l'installation de malwares, le vol d'informations, ou la destruction du SI.
Pour ce faire, les acteurs malveillants utilisent souvent des techniques de dissimulation, comme le déploiement de réseaux de robots (botnets), afin de lancer des attaques massives.
Des groupes d’attaquants sont spécialisés dans la récupération d’accès comme par exemple Emotet. Un fois les accès récupérés il vont être vendus en lot à des brokers sur les Darknets.
Les brokers vont tester et qualifier le niveau des accès (s’il est valide, est-ce que l’entreprise est importante). L’accès va être ensuite vendu à un groupe qui opère généralement un ransomware.
Les Conséquences d’une cyberattaque
Les impacts d'une cyberattaque peuvent être vastes et variés :
- Pertes financières : Cela peut être dû au vol direct d'argent, aux coûts de remédiation, aux amendes réglementaires ou à la perte de clients.
- Réputation endommagée : Les entreprises victimes de cyberattaques peuvent voir leur réputation ternie, entraînant la perte de la confiance des clients ou des partenaires.
- Perturbation des opérations : Une attaque réussie peut rendre les systèmes inopérants, interrompant ainsi les opérations quotidiennes.
- Perte de données : Les informations sensibles, qu'il s'agisse de données clients ou d'informations propriétaires, peuvent être volées ou détruites.
- Conséquences juridiques : Les organisations peuvent faire face à des poursuites ou à des sanctions pour ne pas avoir protégé adéquatement les données.
Comment Réagir face à une cyberattaque
Si vous êtes victime d'une cyberattaque, plusieurs mesures sont cruciales :
- Isolation : Déconnectez immédiatement les systèmes infectés du réseau pour empêcher la propagation du maliciel.
- Contactez les autorités : Informez la police et les entités spécialisées, comme le CERT (Centre d'Expertise Gouvernemental de Réponse et de Traitement des Attaques informatiques) de l'incident.
- Restauration : Utilisez des sauvegardes récentes pour restaurer les données et les systèmes compromis.
La prévention et protection
Pour se prémunir contre ces menaces :
- Mise à jour : Assurez-vous que tous vos systèmes et logiciels sont régulièrement mis à jour.
- Solutions de sécurité : Utilisez des outils comme les antivirus, pare-feux et autres solutions de détection des intrusions.
- Bonnes pratiques : Adoptez une gestion rigoureuse des mots de passe, privilégiez la double authentification et éduquez continuellement le personnel à la sécurité informatique.
En conclusion, à l'ère numérique, les cyberattaques sont une menace omniprésente. Comprendre leur nature, leurs méthodes et comment y réagir est essentiel pour assurer la sécurité et l'intégrité de nos systèmes et données. La prévention reste la meilleure arme, combinée à une réaction rapide et efficace en cas d'incident.
- Anmelden oder Registrieren, um Kommentare verfassen zu können
Google à 25 ans : De la Page Blanche au Monde Connecté

Tu es né avant ou après Google ? Question anodine, pourtant cette entreprise nous fera massivement passer du papier à l'Internet et bouleversera nos habitudes et méthodes de travail. De la naissance d'un moteur de recherche à la création d'un monde connecté, tout en explorant les événements marquants qui ont jalonné son parcours, retraçons brièvement ce quart de siècle : la rivalité avec Yahoo! dans les années 1990, l'ascension fulgurante de dans les années 2000, ses produits et services emblématiques qui ont changé notre manière d'interagir en ligne, ainsi que quelques échecs mémorables dont les plus jeunes n'ont même pas connaissance ou que nous avons oublié...
Yahoo! Et Google dans les années 1990
Crée en 2004 Yahoo! était le principal concurrent de Google à la fin des années 1990 en tant qu'annuaire Web puis moteur de recherche. À cette époque, Yahoo! offrait aux propriétaires de sites Web la possibilité de répertorier leurs sites dans sa base de données en les classant par thème.
Pour référencer un site, les propriétaires devaient passer par plusieurs étapes, notamment la création de leur site Web de manière indépendante, la préparation des informations essentielles sur leur site, la recherche de la catégorie appropriée dans le répertoire de Yahoo!, la soumission du site et la validation par les éditeurs Yahoo! Si le site était approuvé, il était inclus dans le répertoire de Yahoo! Cependant, les propriétaires de sites devaient veiller à ce que les informations restent à jour et pertinentes pour maintenir leur référencement.
De plus, l'annuaire proposait deux options pour suggérer des sites Web en vue d'une éventuelle inscription. L'une était gratuite et l'autre payante qui permettait un examen accéléré du dossier. Toutefois, Yahoo! a rencontré des problèmes, notamment des retards pour répertorier les nouveaux sites et la modification des descriptions des sites qui n'incluait pas assez de mots-clés.
Google a grâce à son algorithme de recherche plus sophistiqué qui classait les résultats en fonction de leur pertinence et popularité malgré le rachat par Yahoo d'Altavista qui fut dans le milieu des année 90, le moteur de recherche numéro 1 (les plus anciens s'en souviendront) disparu en 2013.
L'ascension de Google
L'histoire de Google est une véritable épopée de l'innovation technologique comme la Silicon Valley les aime. De la start-up "garage" à l'une des entreprises les plus puissantes et influentes du monde. Voici un aperçu de l'ascension de Google, à travers des dates clés et des événements marquants.
1996 : Les Origines
L'histoire de Google a débuté en 1996 à l'Université de Stanford (comme pour Yahoo), lorsque deux étudiants en doctorat, Larry Page et Sergey Brin, ont commencé à travailler sur un projet de recherche appelé "Backrub". Leur objectif était de développer un moteur de recherche plus efficace en utilisant un algorithme révolutionnaire (nommé PageRank) basé sur les liens hypertextes pointant vers une page comme un vote pour cette page.
1998 : La Naissance
Le 4 septembre 1998, Larry et Sergey ont officiellement fondé Google, Inc. dans un garage en Californie. À cette époque, Google était loin d'être le géant que nous connaissons aujourd'hui, mais sa mission était déjà ambitieuse : "Organiser l'information du monde et la rendre universellement accessible et utile. » Pour concrétiser leur projet, les 2 étudiants achètent des disques durs pour stocker leur base de données et obtiennent quelques financements. Le nom de domaine est déposé le 15 septembre 1998. La société s'installe dans garage loué et emploie 3 collaborateurs.
2000 : Une Croissance
Au tournant du millénaire, Google avait déjà indexé plus d'un milliard de pages Web et s'imposait comme un moteur de recherche de premier plan. La société a également lancé son modèle publicitaire, AdWords, qui allait faire sa réussite financière. Les services (gratuits) se diversifient avec l'arrivé de Google Labs et aussi le lancement de solutions de recherches de documents pour les entreprises.
2004 : L'Introduction en Bourse
En août 2004, Google a fait une entrée en bourse fracassante. Les fondateurs Larry Page et Sergey Brin ont maintenu un contrôle important sur l'entreprise grâce à une structure d'actionnariat particulière, et Google a levé des milliards de dollars pour financer son expansion rapide. Entrée en bourse qui a failli être reporté à cause du non respect de la période de silence, car les 2 fondateurs avaient donné une interview dans Playboy... une erreur de jeunesse. La même année Google lance Gmail qui n'aura cesse de se développer. Son point fort était de proposer une capacité de 1 Go ce qui a l'époque rassurait les utilisateurs sur le fait de ne pas avoir a supprimer ses email. Cette capacité n'a pas cessé d'augmenter depuis.
2007 : L'Arrivée d'Android
Google acquière Androit une startup spécialisée le développement d'applications mobile (système d'exploitation éponyme fondé sur le noyau Linux). en 2005, et en 2007, le système d'exploitation Android a été officiellement lancé. Cela a ouvert la voie à la domination de Google dans l'industrie des smartphones, avec des milliards de dispositifs Android activés dans le monde entier. Un premier appareil Phone est mis sur le marche en 2008.
2012 : L'Émergence de Google Chrome
En 2012, Google Chrome est devenu le navigateur Web le plus populaire au monde, surpassant Internet Explorer. Ce succès a consolidé davantage la présence de Google dans le monde en ligne. A l'origine, c'est le fruit d'un développement en interne dont le but est d'être rapide et optimisé pour les services en ligne.
2015 : La Création d'Alphabet
Google a réorganisé sa structure en 2015 en créant Alphabet Inc., une société holding qui est devenue la maison mère de Google et de ses nombreuses filiales. Cette décision a permis à Google de se diversifier davantage dans des domaines tels que la recherche en intelligence artificielle, la conduite autonome, l'internet des objets, la santé et la sécurité (avec le rachat de Mandiant).
Au cours de ses 25 ans d'existence, Google a évolué pour devenir bien plus qu'un simple moteur de recherche, devenant un acteur technologique et numérique majeur qui continue de repousser les limites de ce qui est possible.
Les produits et services emblématiques :
Google est connu pour ses produits et services innovants qui ont révolutionné la façon dont nous interagissons avec le monde numérique.
Google Search (Moteur de Recherche) : Lancé en 1998, Google Search est le produit phare de Google et l'un des moteurs de recherche les plus utilisés au monde.
Google Maps : Lancé en 2005, Google Maps a révolutionné la manière dont nous naviguons et découvrons le monde. Google Maps est également utilisé pour développer des applications de géolocalisation et de navigation. A noter aussi Google Earth dont la première version date de 2001 et dans lequel nous cherchions les avions...
YouTube : Acquis par Google en 2006, YouTube est devenu la plus grande plateforme de partage de vidéos au monde. Des milliards d'utilisateurs visionnent, partagent et téléchargent des vidéos sur YouTube.
Google Classroom : Google Classroom est un outil de gestion de l'apprentissage en ligne conçu pour les éducateurs. Il permet aux enseignants de créer des classes virtuelles, d'assigner des devoirs, de partager des ressources pédagogiques et de communiquer avec les élèves de manière transparente.
Google Workspace : Google Workspace est une suite de productivité professionnelle destinée aux entreprises et aux organisations. Elle comprend des outils de communication, de collaboration et de stockage dans le cloud. On trouve Gmail pour la messagerie professionnelle, Google Drive pour le stockage et le partage de fichiers, Google Docs, Sheets et Slides pour la création de documents, de feuilles de calcul et de présentations, ainsi que Google Meet pour les réunions vidéo en ligne.
Ces produits et services emblématiques de Google ont révolutionné la façon dont nous interagissons avec le monde numérique. Ils ont permis à Google de se diversifier et de devenir l'une des entreprises technologiques les plus influentes et innovantes au monde.
Les Flops de google
Cependant, toutes les idées de Google ne se sont pas avérées être des réussites.
Google+ : Google+ était un réseau social lancé par Google en 2011 pour concurrencer Facebook. Il permettait aux utilisateurs de partager des contenus, de créer des cercles d'amis et de participer à des discussions. Malheureusement, il n'a pas réussi à attirer une base d'utilisateurs aussi importante, et ses fonctionnalités n'ont pas suffisamment différencié le service de la concurrence. En conséquence, Google a annoncé la fermeture de Google+ en 2019.
Google Wave : Google Wave était une plateforme de communication et de collaboration en temps réel qui combinait e-mail, messagerie instantanée, partage de documents et édition collaborative. Cependant, Google Wave était complexe et difficile à comprendre pour de nombreux utilisateurs.. Google a finalement abandonné le projet en 2010.
Google Buzz : Google Buzz était une fonctionnalité de partage social intégrée à Gmail, permettant aux utilisateurs de partager des mises à jour, des photos et des liens avec leurs contacts. Cependant, Google Buzz a été lancé avec des problèmes de confidentialité qui ont suscité des préoccupations. En conséquence, Google a rapidement retiré Google Buzz en 2011.
Google Glass : la fameuse paire de lunettes connectées avec un affichage tête haute permettant aux utilisateurs de prendre des photos, de naviguer sur Internet et d'accéder à des informations en temps réel. Les Google Glass ont suscité des préoccupations en matière de vie privée, car elles pouvaient enregistrer des vidéos et des images sans que les gens autour ne le sachent. De plus, leur prix élevé et leur aspect futuriste les ont rendus peu accessibles au grand public. Google a mis fin au projet Google Glass en tant que produit grand public, bien qu'il continue à être utilisé dans des applications industrielles.
Ces produits et services de Google qui n'ont pas réussi montrent que même une entreprise aussi innovante que Google peut avoir des échecs. Cependant, ces échecs ont permis à Google de tirer des leçons et de continuer à innover dans d'autres domaines pour améliorer la vie des gens et changer le monde numérique.
Et voilà, nous avons parcouru de manière rapide un quart de siècle d'innovations, de réussites, et même de quelques ratés. De la naissance du moteur de recherche qui a tout changé au lancement de produits et services révolutionnaires, Google imprime aujourd'hui une empreinte indélébile sur le monde numérique, la société et de facto nos habitudes.
Alors que nous soufflons les bougies de ces 25 années, une chose est certaine : Google continuera à écrire l'histoire de la technologie, à repousser les limites et à nous surprendre avec ses nouvelles idées.
- Anmelden oder Registrieren, um Kommentare verfassen zu können
Les métavers

Meta : Méta est un préfixe qui provient du grec μετά (meta) et qui signifie après, au-delà de, avec... Terme entrant dans la construction de nombreux mots savants dans lesquels il exprime la succession, le changement, la participation.
Un peu d'histoire
Un métavers (de l'anglais metaverse, contraction de meta universe, c'est-à-dire méta-univers) est un monde virtuel fictif. Le terme est régulièrement utilisé pour décrire une future version d'Internet où des espaces virtuels, persistants et partagés sont accessibles via interaction 3D.
Le concept a été décrit pour la première fois en 1992 dans le roman de Neal Stephenson, le samouraï virtuel. Les premiers développements apparaissent dès le milieu des années 80 à travers la communauté du jeu avec l'arrivée des premiers jeux multi-joueurs, ce qui constituait une vraie révolution à l'époque.
Sorti en 2003, Second Life est le pionnier d'une plateforme sociale et économique basée sur un système de micropaiement où les utilisateurs ont la propriété intellectuelle de leurs créations et sont libres de construire eux-mêmes leurs espaces et leurs communautés. Second Life a bénéficié d'un énorme buzz médiatique lors de sa sortie avec 21,3 M de comptes créés. Aujourd'hui on compterait 800 000 personnes qui se connectent au moins 1 fois par jour sur Second Life même si le Covid-19 aurait permis un regain d'activité.
Le ou les métavers sont des mondes immersifs en ligne dont les concepts sont déjà posés depuis quelques années. Chacun peut y avoir son avatar, ses activités, s'y promener, y travailler, y acheter et y vendre des objets virtuels uniques. Plus récemment en 2020, la plateforme du très populaire jeu vidéo Fortnite a réuni plus de 12 millions de spectateurs pour un concert du rappeur Travis Scott sur une ile du jeu de combats. Fortnite a également accueilli un concert d'Ariana Grande et présenté en avant première des bandes annonces de films. Egalement la plateforme du jeu video Epic Games a réussi à faire de Fortnite, un lieu d'interaction social, ou le (pré)adolescent passe de plus en plus de temps à discuter avec sa communauté avant de jouer.
Petit à petit la plateforme de jeu de combat se transforme en réseau social accueillant des évènement virtuels en lien avec le monde réel.
Virage stratégique chez Facebook, l'ombre de Second Life.
Née comme un réseau social, la société de Mark Zuckerberg entend désormais devenir une entreprise du metaverse, allant même jusqu'à se renommer «Meta». Le patron a dévoilé sa vision d'une technologie qui pourrait métamorphoser l'Internet tel que nous le connaissons aujourd'hui.
Mark Zuckerberg a surement senti que la prochaine plateforme majeure sera la réalité virtuelle et vise l'immersion massive (1 milliards d'utilisateurs) dans monde numérique. Les expériences de mini concerts en ligne sonnent comme des indices d'une monétisation possible d'un ensemble de services BtoB et d'interactions sociales qui pourraient être proposés dans un Metaverse.
Second Life était surement en avance de 20 ans, trop. A son pic, cet univers virtuel accueillait des centres de conférences d'IBM, des magasins American Apparel, des permanences politiques de candidats aux élections et plusieurs milliers de connexions simultanées. On entrevoyait déjà les possibilités de cette plateforme, seulement en 2000 la technologie et ou le marché n'étaient pas prêts. Aujourd'hui, les capacités de stockage, le cloud, la mémoire, la puissance, la 5G, les outils d'interactions (casques virtuels) et de connexion, pour ne citer que quelques exemples, transforment cette éventualité en réalité accessible à tous.
Si Mark Zuckerberg renomme son entreprise Meta et met de gros moyens sur la table, les autres géants du numériques ne sont pas en reste, comme l'éditeur du jeu Epic Games qui entend proposer sa vision d'un métavers ou encore Microsoft qui proposera un métavers résolument orienté vers les entreprises. Selon Bloomberg, le marché du métavers pourrait représenter 800 Milliards de dollars d'ici 2024.
Interrogations et craintes
Les réseaux sociaux nous poussent à mettre nos vies en scène et à les comparer à celles des autres. Plusieurs études menées dans les années 2010, ont montré qu'une trop grande utilisation des réseaux sociaux, voire un usage compulsif, pouvaient constituer un facteur de dépression, d'angoisse et pouvait rendre les gens tristes, seuls... Les réseaux entretiennent l'envie de "valoir" quelque chose et de se comparer aux autres.
Qu'en sera t-il dans le métavers ? Les réseaux sociaux exacerbent l'apparence, le fake, l'avoir, l'affichage de la vie parfaite au détriment de l'être. Les métarvers proposent une déconnexion complète de la réalité en supprimant le contact physique avec la nature et l'environnement réel. Quels sont les risques des relations virtuelles sur notre conception de l'humanisme ?
Le niveau d'information des géants du numérique sur leurs utilisateurs déjà élevé risque de passer un nouveau palier. Ces informations pourraient être utilisées pour manipuler les utilisateurs en masse et les influencer à leur insu comme l'avait révélé le scandal Facebook-cambridge Analytica où les données de 87 Millions d'utilisateurs avaient été exploitées dès 2014.
Alors que les cyberattaques prolifèrent, il faudra que les plateformes responsables offrent de solides garanties en matière de sécurité numérique, surtout si les utilisateurs en viennent à dépendre de ces mondes virtuels pour le moindre aspect de leur vie.
Une perspective qui suscite elle aussi de multiples interrogations d'un point de vue éthique. La consommation énergétique colossale requise par les datacenters dédiés à ces univers devrait également être au coeur des préoccupations, à l'heure où la transition climatique n'est plus une option.
- Anmelden oder Registrieren, um Kommentare verfassen zu können
Des hackers ont mis en ligne de fausses applications Signal et Telegram

Début septembre des chercheurs de ESET Research viennent de découvrir une opération de cyberespionnage chinoise. Des pirates informatiques du groupe GREF, lié à la Chine, ont publié des applications en ligne sur le Google Play Store et le Samsung Galaxy Store, se faisant passer pour des versions des services de messagerie Signal et Telegram, mais cachant en réalité des logiciels espions : «Signal Plus Messenger» et «Flygram», révèle Magazine économique américain Forbes. Si Google les a déjà supprimés, Samsung semble beaucoup moins pressé.
«Nous sommes heureux que le Play Store ait supprimé de sa plateforme ce malware malveillant se faisant passer pour Signal. Nous sommes profondément préoccupés par tous ceux qui ont téléchargé cette application. Nous exhortons Samsung à agir rapidement pour supprimer ce malware», a déclaré Meredith Whittaker, présidente de la Signal Foundation, qui développe l’application de messagerie cryptée.
Dans sa version normale, Signal permet à l'utilisateur de connecter la messagerie à son ordinateur ou sa tablette afin de pouvoir l'utiliser depuis ces appareils. "Signal Plus Messenger" utilise cette fonctionnalité pour relier l'application Signal de la cible au compte Signal de l'attaquant, permettant à l'attaquant de lire tous les messages envoyés et reçus par la cible sur Signal, explique Lukáš Stefanko, chercheur ESET et expert en logiciels malveillants.
Tout cela se passe "sans que l'utilisateur ne s'aperçoive de rien ni ne reçoive aucune notification, tout se passe en silence", prévient le chercheur. Ce serait le premier cas documenté d’espionnage de Signal via une "connexion automatique" secrète. Cela représente également un effort sans précédent de la part d’un groupe de pirates informatiques chinois pour pirater Signal. "Signal Plus Messenger" a été téléchargé près de 500 fois uniquement sur Google Play, ce qui semble indiquer qu'il ciblait des personnes spécifiques.
Le code utilisé dans cette opération de cyberespionnage était déjà apparu dans une autre application malveillante : "Flygram", qui était une version des messages Telegram et était également disponible dans les stores Google et Samsung. Selon Lukas Stefanek, le lien pour télécharger cette application a été distribué principalement dans le groupe Telegram visité par les Ouïghours, malheureusement avec plus de succès.
"Flygram pouvait accéder aux sauvegardes de Telegram si l'utilisateur activait une certaine fonctionnalité du malware. Au moins 13 953 comptes d'utilisateurs l'ont activé", déplore le chercheur. Si c’est aux internautes d’être prudents, les géants du numérique comme Samsung doivent aussi prendre leurs responsabilités pour supprimer de leurs plateformes ce logiciel corrompu.
- Anmelden oder Registrieren, um Kommentare verfassen zu können
Que contient un audit de sécurité informatique ?

Un audit de sécurité informatique est un examen systématique et méthodique des systèmes et applications d'une organisation afin d'évaluer la robustesse de ses mécanismes de sécurité. L'objectif principal est d'identifier les vulnérabilités et faiblesses qui pourraient être exploitées par des acteurs malveillants et de renforcer la sécurité par la mise en place des recommandations. L'audit permet également d'évaluer la conformité du SI avec la Politique de Sécurité du Système d'Information.
Un audit de sécurité peut être divisé en plusieurs chapitres ou thèmes, notamment :
- Audit de sécurité physique : Évalue la sécurité des installations physiques, comme l'accès aux centres de données, la sécurité des serveurs, etc.
- Audit de sécurité réseau : Analyse la configuration, les équipements (routeurs, pare-feux, etc.) et les protocoles utilisés pour assurer la sécurité du réseau contre les attaques externes ou internes.
- Audit de sécurité des applications : Se concentre sur les logiciels et les applications pour déterminer si des vulnérabilités peuvent être exploitées.
- Audit des politiques et procédures : Évalue si les politiques et procédures de sécurité mises en place par l'entreprise sont adéquates et si elles sont respectées.
- Test d'intrusion (pentest) : Il s'agit d'une approche proactive où des experts en sécurité essaient, avec l'autorisation de l'organisation, de pénétrer ses systèmes pour découvrir des vulnérabilités. Contrairement à un audit de sécurité traditionnel qui peut être plus passif ou basé sur une évaluation, un test d'intrusion est actif et cherche à exploiter réellement des failles.
- Audit de la conformité : Assure que l'organisation respecte les normes et réglementations en vigueur en matière de sécurité informatique.
À la fin de l'audit, un rapport est généralement produit, détaillant les vulnérabilités trouvées, leur gravité, les axes d’amélioration et des recommandations pour les corriger.
La réalisation régulière d'audits de sécurité est cruciale pour les organisations afin de maintenir un niveau de sécurité élevé face à l'évolution constante des menaces informatiques. Un audit de sécurité est généralement recommandé avant de souscrire une assurance cyber car il permet de connaître le niveau de maturité du SI face au risque cyber.
- Anmelden oder Registrieren, um Kommentare verfassen zu können
Quelle formation pour la cybersécurité ?

Aujourd’hui, la cybersécurité fait partie de notre quotidien. Et pour cause, des cyberattaques surviennent tous les jours dans tous les domaines.
De nombreuses formations en cybersécurité ont vu le jour ces dernières années face à cette recrudescence de cyberattaques et au besoin pour les entreprises de renforcer la sécurité de leur systèmes d’information.
Il y a quelques années, ces formations n’existaient pas et la sécurité du système d’information n'était pas un sujet pour les entreprise.
Depuis, plusieurs cursus sont apparus et aujourd’hui la sécurité informatique et du numérique en général regroupe plusieurs dizaines de métier différents.
Voici quelques parcours possibles pour travailler dans la cybersécurité en fonction de vos critères et de vos envies :
- Le Licence/Bachelor Cybersécurité :
- Durée Formation : 3 ans
- Le minimum requit pour être embauché par une entreprise dans le domaine de la cybersécurité. Vous y apprendrez les fondamentaux sur la protection du réseau et de ses données afin de contrer les cyberattaques.
- L'Ecole d’Ingénieur/Expert en Cybersécurité :
- Durée Formation : 5 ou 6 ans
- Cette formation s’effectue en 5 ou 6 ans et la spécialisation se fait graduellement en fonction de l'école. Le diplôme en sortie d'étude est reconnu par la CTI (Commission des Titres d’Ingénieurs) pour une Ecole d’ingénieur. Ce qui n’est pas le cas pour une Ecole d’expert.
- La Formation en ligne :
- Durée Formation : Variable
- De nombreux sites de formations en ligne en cybersécurité sont à pourvoir. Certaines gratuites d’autres non. Attention tout de même aux formations payantes qui peuvent être parfois des arnaques.
- Dans certains établissements, il est possible de faire son cursus ou une partie de celui-ci en alternance. Renseignez-vous ! Allier la pratique et la théorique est un bon moyen de gagner rapidement en expérience, ce qui facilitera votre embauche en fin de cursus.
Il est aussi possible de se reconvertir dans la cybersécurité et de se former tout au long de sa carrière. Pour progresser ou pour savoir si cette matière est faite pour vous, commencez par suivre une formation aux bases de la cybersécurité.
- Anmelden oder Registrieren, um Kommentare verfassen zu können
Tags
Cybersécurité et la Coupe du Monde de Rugby 2023

Cybersécurité et la Coupe du Monde de Rugby 2023
Lorsque des compétitions internationales se déroulent, les cybercriminels déploient une créativité et une expertise redoutable pour tendre des pièges et tenter d'induire en erreur les fans.
La Coupe du Monde de Rugby, qui se tient en France du 8 septembre au 28 octobre, ne fait probablement pas exception à cette règle. Les menaces en matière de cybersécurité planant sur ces événements sportifs et leurs plateformes officielles se diversifient, se complexifient et se multiplient.
Pendant que les inconditionnels du rugby à vivent l'intense frisson de l'ovale, les experts en cybersécurité maintiennent une vigilance constante.
Les cyberattaques peuvent engendrer des conséquences dévastatrices, allant de la perturbation des opérations à la mise en péril de données. sensibles.
Un Terrain de Chasse Privilégié pour les Cybercriminels
Les événements sportifs de cette envergure attirent une audience massive, composée de millions de spectateurs et de supporters venus des quatres coins du globe. Ce vivier offre aux cybercriminels une vaste sélection de cibles potentielles, augmentant substantiellement leurs chances de succès et de faire parler d’eux.
Les fans de rugby sont particulièrement ciblés par les cyberattaques : achats en ligne, réservations (transport, hébergement...), échanges, produits dérivés souvenirs. Ces transactions créent un flux continu de données que les cybercriminels cherchent à exploiter afin de dérober des informations bancaires ou d'usurper des identités. Les données personnelles sont ainsi exposées à des risques. Si elles devaient être compromises, elles pourraient être exploitées à des fins malveillantes, telles que le vol d'identité ou la fraude.
Il est donc impératif de mettre en œuvre des mesures de cybersécurité robustes afin de préserver l'intégrité de l'événement et d'assurer la sécurité de tous les intervenants.
Il est donc impératif de mettre en œuvre des mesures de cybersécurité robustes qui reposent sur une bonne Politique de Sécurité du Système d'Information.
Afin de vous accompagner dans la sécurisation du système d'information et ou la mise en œuvre d'une PSSI, demandez un devis sur le site https://www.cnc-expertise.com/contact.html, votre cabinet d’expertise cyber & IT spécialisé dans la maîtrise du risque cyber et les sinistres liés aux technologies de l’information. Nous vous proposons aussi des formationset de la sensibilisation pour vous préparer aux mieux au risque cyber.
Les 5 Conseils Cruciaux de Cybersécurité pour la Coupe du Monde de Rugby 2023
- Optez Exclusivement pour des Sites Officiels et Fiables lors de vos Achats en Ligne
Afin d'éviter tout risque d'escroquerie, d'achat de contrefaçons, d'hameçonnage ou de fraudes bancaires, privilégiez uniquement les sites officiels et de confiance pour vos transactions en ligne. Lors de l'achat ou de la revente de billets, ne choisissez qu'un seul site officiel : tickets.rugbyworldcup.com.
- Utilisez des Méthodes de Paiement Sécurisées
Favorisez les cartes de crédit ou les services de paiement sécurisés lors de vos transactions en ligne. Évitez l'utilisation de méthodes de paiement peu fiables ou difficiles à vérifier.
- Protégez Jalousement vos Informations Personnelles
Ne partagez jamais d'informations sensibles ou personnelles, telles que vos coordonnées bancaires, sur des sites non sécurisés ou provenant de sources non vérifiées.
- Restez Vigilant Face aux Offres qui Semblent Trop Belles pour Être Vraies
Méfiez-vous des offres qui paraissent exagérément alléchantes, car elles pourraient dissimuler des tentatives d'escroquerie. Comme des techniques d’hameçonnage ou de phishing.
- Visionnez les Matchs Exclusivement sur les Sites Officiels
Évitez les sites de streaming pirates ou illégaux lorsque vous regardez les matchs. Privilégiez les sites officiels afin d'éviter les risques liés à la sécurité, tels que les infections par des logiciels malveillants, des virus, les publicités agressives et les vols de données personnelles.
- Anmelden oder Registrieren, um Kommentare verfassen zu können
Cybersécurité et la Coupe du Monde de Rugby

Cybersécurité et la Coupe du Monde de Rugby 2023
Lorsque des compétitions internationales se déroulent, les cybercriminels déploient une créativité et une expertise redoutable pour tendre des pièges et tenter d'induire en erreur les fans.
La Coupe du Monde de Rugby, qui se tient en France du 8 septembre au 28 octobre, ne fait probablement pas exception à cette règle. Les menaces en matière de cybersécurité planant sur ces événements sportifs et leurs plateformes officielles se diversifient, se complexifient et se multiplient.
Pendant que les inconditionnels du rugby à vivent l'intense frisson de l'ovale, les experts en cybersécuritémaintiennent une vigilance constante.
Les cyberattaques peuvent engendrer des conséquences dévastatrices, allant de la perturbation des opérations à la mise en péril de données. sensibles.
Un Terrain de Chasse Privilégié pour les Cybercriminels
Les événements sportifs de cette envergure attirent une audience massive, composée de millions de spectateurs et de supporters venus des quatres coins du globe. Ce vivier offre aux cybercriminels une vaste sélection de cibles potentielles, augmentant substantiellement leurs chances de succès et de faire parler d’eux.
Les fans de rugby sont particulièrement ciblés par les cyberattaques : achats en ligne, réservations (transport, hébergement...), échanges, produits dérivés souvenirs. Ces transactions créent un flux continu de données que les cybercriminels cherchent à exploiter afin de dérober des informations bancaires ou d'usurper des identités. Les données personnelles sont ainsi exposées à des risques. Si elles devaient être compromises, elles pourraient être exploitées à des fins malveillantes, telles que le vol d'identité ou la fraude.
Il est donc impératif de mettre en œuvre des mesures de cybersécurité robustes afin de préserver l'intégrité de l'événement et d'assurer la sécurité de tous les intervenants.
Il est donc impératif de mettre en œuvre des mesures de cybersécurité robustes qui reposent sur une bonne Politique de Sécurité du Système d'Information.
Afin de vous accompagner dans la sécurisation du système d'information et ou la mise en œuvre d'une PSSI, demandez un devis sur le site https://www.cnc-expertise.com/contact.html, votre cabinet d’expertise cyber & IT spécialisé dans la maîtrise du risque cyber et les sinistres liés aux technologies de l’information. Nous vous proposons aussi des formationset de la sensibilisation pour vous préparer aux mieux au risque cyber.
Les 5 Conseils Cruciaux de Cybersécurité pour la Coupe du Monde de Rugby 2023
- Optez Exclusivement pour des Sites Officiels et Fiables lors de vos Achats en Ligne
Afin d'éviter tout risque d'escroquerie, d'achat de contrefaçons, d'hameçonnage ou de fraudes bancaires, privilégiez uniquement les sites officiels et de confiance pour vos transactions en ligne. Lors de l'achat ou de la revente de billets, ne choisissez qu'un seul site officiel : tickets.rugbyworldcup.com.
- Utilisez des Méthodes de Paiement Sécurisées
Favorisez les cartes de crédit ou les services de paiement sécurisés lors de vos transactions en ligne. Évitez l'utilisation de méthodes de paiement peu fiables ou difficiles à vérifier.
- Protégez Jalousement vos Informations Personnelles
Ne partagez jamais d'informations sensibles ou personnelles, telles que vos coordonnées bancaires, sur des sites non sécurisés ou provenant de sources non vérifiées.
- Restez Vigilant Face aux Offres qui Semblent Trop Belles pour Être Vraies
Méfiez-vous des offres qui paraissent exagérément alléchantes, car elles pourraient dissimuler des tentatives d'escroquerie. Comme des techniques d’hameçonnage ou de phishing.
- Visionnez les Matchs Exclusivement sur les Sites Officiels
Évitez les sites de streaming pirates ou illégaux lorsque vous regardez les matchs. Privilégiez les sites officiels afin d'éviter les risques liés à la sécurité, tels que les infections par des logiciels malveillants, des virus, les publicités agressives et les vols de données personnelles.
- Anmelden oder Registrieren, um Kommentare verfassen zu können
Des télescopes visés par une cyberattaque

Il y a quelques semaines, l'observatoire astronomique Gemini, cofinancé par plusieurs pays, dont la Fondation nationale pour la science (NSF) des États-Unis, a été la cible d'un mystérieux piratage informatique. En août, le NOIRLab (National Optical-Infrared Astronomy Research Laboratory) de la NSF a annoncé avoir été victime d'une "cyberattaque apparente", entraînant l'interruption soudaine des opérations du télescope Gemini North, situé sur le volcan Mauna Kea, à Hawaï.
Par mesure de précaution, toutes les activités de l'observatoire Gemini, y compris un second télescope situé dans l'hémisphère sud, ont été temporairement suspendues. Heureusement, le télescope Gemini South au Chili était déjà en arrêt planifié pour des travaux à ce moment-là.
Ces deux télescopes, mesurant plus de huit mètres chacun, ont joué un rôle crucial dans la recherche astronomique en révélant des événements tels que la naissance d'une supernova et la découverte du trou noir le plus proche de la Terre.
Le 9 août 2023, par mesure de sécurité, le NOIRLab a également fermé l'accès à distance à un autre réseau de télescopes appelé "Mid-Scale Observatories". Cela a affecté le télescope SOAR et le télescope Víctor M. Blanco, tous deux situés au Chili, ainsi que huit autres télescopes dans le pays.
Même si des mesures de sécurité existent, nous ne sommes pas certain que les observatoires astronomiques disposent de PSSI (Politique de Sécurité du Système d’Information) efficaces pour faire face à une menace qui n’avait peut être été identifiée jusqu’alors.
Les raisons de cette attaque restent obscures, et même les employés du laboratoire sont peu informés. On ne sait pas si une demande de rançon a été formulée. Ces fermetures répétées ont perturbé le travail des astronomes, de chercheurs, interrompant des projets internationaux, des thèses et des articles scientifiques. Certains projets ont même dû être abandonnés, car les chercheurs travaillent avec des fenêtres temporelles très limitées, et certaines occasions de recherche ont été perdues.
On peut se demander si les pirates informatiques se rendent compte de la structure qu’ils attaquent et qui sont différentes des entreprises privées qui pourraient être susceptibles de payer une rançon.
Les chercheurs sont confrontés à des défis considérables pour reprendre leurs travaux et recréer les données perdues. Par exemple, Luis Welbanks, postdoctorant en astronomie à l'université d'État de l'Arizona, a manqué trois de ses sept fenêtres d'observation cette année en raison de l'interruption causée par le piratage. Cette situation risque d'affecter leur carrière académique, car ils doivent expliquer l'absence de données dues à des cyberattaques inattendues.
Il est à noter que ce n'est pas la première fois qu'une cyberattaque de ce type touche l'astronomie, car un réseau d'antennes au Chili avait déjà été interrompu pendant 48 jours fin 2022 pour des raisons similaires.
La prévention dans ce type de structure où plusieurs chercheurs de nationalités différentes se croisent et se succèdent continuellement ne doit pas être négligée même si elle représente un défi majeur.
- Anmelden oder Registrieren, um Kommentare verfassen zu können
L'Iphone 15 passe à l'USB-C

Dans sa Keynote du 12 septembre Apple à annoncé que les prochains iPhones au connecteur à la prise USB-C, en remplacement connecteur Lightning (depuis 2012).
Voté au parlement européen en octobre 2022 par 602 voix pour (13 contre et 8 abstentions), la mesure a pour but de faciliter la vie des consommateurs en imposant au fabricants un port universel pour la charge. A partir du 28 décembre 2024, il sera interdit de ventre un smartphone ou une tablette dépourvu de port USB-C pour la charge.
Les citoyens de l'union n'auront plus besoin d'un chargeur différent à chaque fois qu'ils achèteront un nouvel appareil, puisqu'ils pourront utiliser un seul chargeur pour toute une série d'appareils électroniques portables de petite et moyenne taille.
Les chargeurs mis au rebut et inutilisés représenteraient environ 11 000 tonnes de déchets électroniques par an dans l'UE. L'économie estimée pour les consommateurs au sein de l'union est de 250 millions d'euros par an.
- Anmelden oder Registrieren, um Kommentare verfassen zu können
France Assureur prend position sur l'IA

Alors que l'IA explose depuis 2022 avec l'apparition de nombreux outils, en particulier Midjourney et ChatGPT, France assureur avait produit un document de position fort intéressant (Pour une utilisation responsable et étique de l'intelligence artificielle dans l'assurance) en janvier 2022, dont nous vous rappelons les grandes lignes.
L’intelligence artificielle (IA) permet aux machines de simuler la pensée humaine et d’effectuer des tâches qui étaient jusqu’à présent l’apanage des êtres humains, telles que la perception et l’analyse des données, l’adaptation au contexte et à l’interlocuteur, la prise de décision et l’apprentissage. L’IA est en plein essor, offrant des opportunités d’innovation et d’efficacité dans de nombreux domaines, y compris l'assurance rappelait France Assureurs.
Même si l'IA est de plus en plus présente dans notre quotidien, la technologie est récente et nécessite une attention particulière. Les échanges avec les assistants vocaux peuvent souvent donner lieu à une mauvaise interprétation des consignes. Les prises de décision automatisées via l’IA peuvent également avoir des conséquences sur la sécurité des personnes, par exemple, l’IA embarquée pour l’aide à la conduite, bref, l'IA reste a parfaire.
Dans le secteur de l’assurance, l’IA offre de nombreux avantages, tels que l’automatisation de tâches répétitives et fastidieuses, l’évaluation des risques, le calcul des primes, l'estimation du coût d'un sinistre, et la personnalisation des services et produits d’assurance pour les clients.
Les innovations digitales bénéfiques pour les assurés comprennent des chatbots conversationnels pour répondre aux requêtes en ligne 24h/24 et 7j/7, des systèmes automatisés d'analyse et de qualification des courriels pour accélérer leur traitement, des solutions de gestion rapide et automatisée de petits sinistres automobiles avec le traitement par l'IA des images du véhicule, et des solutions d’analyse des flux de données issus d'objets connectés pour déclencher une éventuelle intervention humaine.
Pour France Assureur, il est essentiel que tout soit mis en œuvre pour éviter les risques liés à une utilisation non raisonnée de l’IA en assurance. Les assureurs estiment qu'une "IA éthique" en assurance doit être supervisée par l’humain, non biaisée, transparente et explicable. De nombreuses règles françaises et européennes fixent déjà un cadre et des limites à l'utilisation des données par les entreprises du secteur de l'assurance, ce qui permet de concilier la nécessaire protection du consommateur et l'innovation en matière de services.
En avril 2021, la Commission européenne a dévoilé son projet de règlement sur l'utilisation éthique de l'IA et devrait légiférer sur la responsabilité de l'IA en 2022. Les assureurs soutiennent la mise en place d'un cadre réglementaire européen pour une utilisation éthique de l'IA, mais considèrent qu'il est indispensable de veiller au bon équilibre réglementaire. Les mesures disproportionnées, telles que la classification « IA à haut risque » appliquée sans distinction à l'ensemble du secteur de l'assurance, doivent être évitées.
France Assureurs rappelle que "L’intelligence artificielle doit demeurer, pour les entreprises d’assurance, une opportunité d’innovation mise au service de leurs clients."
- Anmelden oder Registrieren, um Kommentare verfassen zu können
Retour sur l'AMRAE et l'avenir de la cyber assurance

Retour sur l'AMRAE qui s'est déroulée à Deauville dans de bonnes conditions (2300 congressistes) malgré un dispositif spécial pour cause de crise sanitaire. Nous remercions tous les interlocuteurs avec qui nous avons pu échanger et partager des analyses. Pour avoir participé à plusieurs réunions de souscription cyber en fin d'année dernière nous sentions que la situation était encore plus tendue qu'en 2020. Sans surprise, c'est sur le cyber que se concentrent les difficultés de renouvellement (non reconduction, explosion des primes, des franchises...)
Nous n'allons pas revenir sur le manque de capacités que chacun connait ici mais sur le fait que trois ou quatre gros sinistres suffisent à les assécher. C'est le niveau des réclamations qui questionne quand on sait que les entités concernées sont des grandes entreprises qui présentaient toutes les garanties et les vertus en termes de gestion de la sécurité informatique. Comment cela peut arriver lorsqu'on sait que ces attaques ne sont pas sophistiquées et qu'elles laissent de nombreuses traces et indices avant d'être déclenchées ?
Ainsi il n'est pas normal que moins d'1% des sinistres indemnisés perturbent autant le marché. Par effet de bord ces gros sinistres bloquent l'accès au marché des ETI (8% sont assurées) et des PME (moins de 1% sont couvertes).
La disparition de l'assurance cyber ?
Dans les allées de l'AMRAE nous avons eu des échanges intéressants, enrichissants, nous avons partagé nos vues et nos idées sur l'assurance cyber et ses évolutions possibles. Un point revenu souvent, c'est la disparition du marché de l'assurance cyber que plusieurs annoncent. Nous n'y croyons pas.
Les grands comptes ne sont plus un levier de croissance pour la cyberassurance. Les données sur la couverture des ETI et des PME (voir ci-avant) indiquent que la marge de progression est énorme et que des polices adaptées pourraient permettre de rééquilibrer le ratio prime sinistre. Encore faut-il que les services proposés en termes d'assistance soient efficaces et bon marché, ce qui n'est pas le cas aujourd'hui.
L'autre point reste la prévention et là encore, le bon sens et des règles simples de gouvernance de la sécurité peuvent permettre à des moyennes structures de gagner rapidement en maturité et à moindre coût.
Nous avons la conviction que les courtiers peuvent jouer un rôle moteur dans la prévention, tout comme les assureurs à travers des contrats adaptés. Le gain de technicité des acteurs de l'assurance cyber est essentiel, et doit être porté au même niveau que celui des autres spécialités du dommage. Les ETI et les PME ont du mal à faire le tri parmi la myriade de solutions de cyber sécurité plus ou moins pertinentes qui abondent. Le plus cher, n'est pas forcément le meilleur. C'est là que nous devons les aider.
Nous ne pensons pas que l'assurance cyber disparaitra. Objectivement, son développement est faible comparé aux 60 milliards de primes collectées en France (2020) sur l'assurance dommage.
En revanche, nous croyons à sa spécialisation par segment de marché et à la mise en place de nouveaux mécanismes (fonds, captives...). Chacun doit faire un pas vers l'autre : les assureurs doivent adapter leurs produits, les courtiers conseiller techniquement sur des bases solides, et les entreprises s'engager dans une démarche de prévention graduelle, et de transparence.
Paiement des rançons ou pas?
Autre sujet sur le lequel nous avons eu le plaisir d'échanger (et débat permanent) est le paiement des rançons. Le rapport (2021) sur la cyber-assurance de la député Faure-Muntian, propose "...d'inscrire dans la loi l'interdiction pour les assureurs de garantir, couvrir ou d'indemniser la rançon..." Rappelons qu'aujourd'hui qu'aucun texte ne sanctionne pénalement le paiement d'une rançon par une victime.
Le paiement d'une rançon est le dernier recours quand tout a été tenté, il ne s'agit pas d'un choix économique. C'est une décision prise pour éviter une faillite et la mise au chômage des collaborateurs d'une entreprise.
Cette garantie ne constitue pas aujourd'hui une activité illicite (au sens du Code civil, du Code des assurances, ou encore de la jurisprudence).
Sur le plan pénal, une infraction est cependant caractérisée par la connaissance en amont du fait que les fonds fournis sont "destinés à être utilisés, en tout ou en partie, en vue de commettre un acte de terrorisme" (article 421-2-2 du CP). Il apparaît que la grande majorité des pays n’interdit pas l’assurabilité du remboursement des rançons en cas de cyberattaque mais la subordonne à certaines conditions (notamment la lutte contre le blanchiment et le terrorisme). Donc, le risque n'est pas négligeable.
Soulignons tout de même qu'à ce jour, aucun pays de l'union européenne n'interdit cette couverture mais des évolutions ne sont pas à exclure dans les prochains mois.
A notre avis seul un texte au niveau européen serait pertinent et cohérent dans un marché commun. D'autant que ce texte édicterait des obligations pour les assureurs afin de fixer un cadre (s'il ne s'agit pas d'une interdiction) aux obligations de lutte contre le blanchiment et le financement du terrorisme.
A nos yeux, une prochaine étape (qui est déjà sérieusement étudiée) est le traçage des transactions de cryptomonnaies, d'autant que ce type de paiement et leurs actifs sont amenés à croître dans les prochaines années allant de pair avec l'intérêt des acteurs de l'économie et de la finance. Cette démarche de traçage et de transparence nécessaire va dans le sens de l'évolution des outils de l'économie, elle contribue aussi à lutter contre les rançongiciels.
Enfin, nous sommes très réservés sur les chiffres avancés concernant le paiement des rançons et la partie prenante des assureurs. La plupart des entreprises touchées paient des petites rançons (les PME) qui sont souvent la conséquence d'un manque de prévention ou de technicité de leurs prestataires. Elles sont victimes de robots qui les scannent et exploitent des vulnérabilités d'équipements - mal configurés, pas à jour, obsolètes - exposés sur l'internet (boitiers VPN, NAS, pare-feu...).
Ces entreprises ne sont pas, pour la grande majorité, couvertes (moins de 10% ont un contrat cyber). Auraient-elles dues l'être avec une obligation contractuelle de faire des sauvegardes déconnectées et un réel accompagnement en prévention ? C'est un autre débat, c'est peut-être le bon.
- Anmelden oder Registrieren, um Kommentare verfassen zu können
Internet propagande totale

Depuis le début de l'invasion Russe en Ukraine, chaque camp dénonce la propagande et les manipulations de l'information de l'autre. L'internet est devenu le terrain de cette propagande avec une intense guerre des mots et des images. A la réaction occidentale de suspendre les médias comme RT et Sputnik, la réponse Russe a été de suspendre les réseaux sociaux Facebook, Twitter et Instagram (bannis pour extrémisme).
Mais cela ne s'arrête pas là. Les autorités Russes ont bloqué une quinzaine de média locaux et régionaux traduisant une volonté de contrôle de l'information par le pouvoir sur le conflit. Puis, le le 4 mars, le Kremlin a voté une loi visant à punir les personnes qui publieraient des « informations mensongères ». Ainsi, il est interdit au média d'utiliser les termes "guerre", "offensive" ou invasion pour dépeindre la situation. À la place, il convient d'utiliser "opération spéciale", "opération militaire", "opération de maintien de la paix" ou "introduction de forces militaires".
C'est dans ce contexte de verrouillage par exemple, qu'une journaliste a brusquement interrompu le journal télévisé diffusé en direct le lundi 14 mars 2022 en brandissant une pancarte anti-guerre. Elle a depuis été arrêtée.
La Russie accuse l'Ukraine d'avoir commis "un génocide" dans le Donbass et envers les populations russes. Les médias russes décrivent les autorités ukrainiennes comme étant des "nazis" et des "terroristes", et estiment qu'elles sont responsables de l'escalade de la violence.
Plusieurs analystes soulignent que cette guerre est une conséquence de la désinformation Russe (relayée parfois par des médias occidentaux) et que l'Europe a fermé les yeux depuis plusieurs années sur ce phénomène. En France, des politiques de tous bords ont relayé cette propagande justifiant même l'annexion de la Crimée il y a quelques années.
Côté Ukrainien, on n'est pas reste mais les moyens sont différents. Les fondements ne reposent pas sur la désinformation sur le long terme comme le font les Russes depuis 2014 et le conflit dans le Donbas.
Le 24 février 2022 au premier jour de l'invasion, on a vu apparaitre le Fantôme de Kiev, un hypothétique as de l'aviation ukrainien pilotant un MiG-29 qui aurait abattu six avions russes. Le fantôme de Kiev a eu un effet positif sur le moral des troupes mais les vidéo de ses exploits seraient originellement tirée du jeu vidéo Digital Combat Simulator (selon l'Express).
Les Ukrainiens utilisent les vidéos au service de leur propagande et instrumentalisent par exemple les soldats russes prisonniers, leur offrant un café, leur proposant d'appeler leur famille. Une stratégie qui a pour but d'affaiblir moralement le camp d'en face. De même, des vidéos de matériels russes détruits pullulent sur les réseaux sociaux.
La stratégie de la propagande Ukrainienne est aussi d'impacter les médias russes et sa population. Pour se faire, le gouvernement de Kiev a mobilisé les agences publicitaires du pays et même contacté la société d'Elon Musk auprès de qui du matériel de communication a été importé afin que le pays puisse maintenir une présence en ligne, mener des cyberattaques et dire aux Russes "leur vérité".
La propagande Ukrainienne inclut des exagérations et des contre-vérités, a déclaré Dmitri Alperovitch (Américain d'origine Russe, cofondateur de CrowdStrike), notant que nombre de ses affirmations étaient « douteuses ou prouvées fausses ». Par exemple, l’affirmation de Mykhailo Fedorov (vice premier ministre Ukrainien) selon laquelle la Bourse de Moscou, qui était hors ligne lundi, l’était toujours le lendemain grâce à une cyberattaque de l’armée informatique, s’est avérée fausse.
L'autre aspect de la propagande Ukrainienne réside dans le fait que la bataille de l'information et la transparence des attaques cyber (les russes ne les dévoilent pas) peuvent être suivies sur Telegram où les cibles sont affichées afin de prévenir les démentis russes.
Au final, nous sommes tous victimes de la désinformation et de la propagande des belligérants.
Après avoir pendant des années laissé la désinformation Russe s'installer dans nos démocraties, nos médias offrent aujourd'hui une caisse de résonance à la propagande Ukrainienne. De fait, le pays a rapidement gagné l'opinion l'international.
Nous notons une différence de méthode ; les Russes sont depuis plusieurs années sur le temps long avec une propagande via des média classiques (radio, TV, troll sur les blogs, presse) alors que les Ukrainiens utilisent des médias de l'instantané, principalement les réseaux sociaux.
Les plus a plaindre restent les peuples Ukrainiens et Russes qui sont les premiers manipulés. On note cependant un réveil des consciences en Russie dont le peuple se retrouve coupé du monde sous le coup des restrictions en série aux services Internet et à l'information.
En effet, la demande de VPN (pour contourner la censure) connait un bon jamais vu avec une augmentation des demandes de service, le 14 mars 2022 avec un pic de plus de 2 700%. La demande reste forte depuis avec plus de 1 000 % en moyenne. Les Russes se ruent sur les VPN pour accéder à Facebook, Instagram et suivre la guerre à travers une autre propagande.
Les géants du numériques ont su profiter du Covid, l'histoire se répète avec le drame qui se joue aux portes de l'Europe. La désinformation est devenue tellement prédominante et crédible que des services basés sur l'Intelligence Artificielle sont en train de voir le jour pour détecter les fausses informations.
Peut-on faire confiance à ces algorithmes sensés démêler le faux du vrai ? En fonction de nos opinions, cela dépendra aussi du pays où se trouve l'entreprise qui les développe...
- Anmelden oder Registrieren, um Kommentare verfassen zu können
Sécurité informatique : Priorité aux ransomware, que faire de la cyberassurance ?

Alors que les effets de la pandémie se poursuivent et que le monde du travail s'adapte à la "nouvelle normalité", comment les entreprises aborderont-elles la sécurité en 2022, et comment tireront-elles le meilleur parti de leurs dépenses accrues ?
La sécurité continue d'attirer les investissements de l'informatique et 2022 ne fera pas exception. Selon Gartner, deux tiers des entreprises mondiales prévoient d'augmenter leurs investissements dans la cyber-sécurité et la protection de leurs données en 2022. En Europe, les dépenses liées à la sécurité informatique devraient faire un bond de 37,2 milliards de dollars (en 2021) à plus de 50 milliards de dollars en 2025 selon IDC (International Data Corporation). Derrière cela, il y a plusieurs tendances qui influencent les décisions sur la façon dont ces budgets sont alloués et pourquoi les dépenses continuent de croître. En examinant ces tendances, nous pouvons tenter de faire quelques prédictions.
Tendance n° 1 - Les conseils d'administration s'impliqueront davantage dans les décisions relatives à la sécurité
Le nombre "d'attaques réussies de ransomware" et l'importance des frais qui y sont associés ont obligé les entreprises à prendre la sécurité plus au sérieux. Par le passé, la sécurité pouvait être reléguée au rang de problème technologique et sa gestion était confiée à l'informatique. Aujourd'hui, les coûts engendrés font que la sécurité informatique devient un risque de niveau commercial et donc de survie pour l'entreprise.
En 2022, davantage d'entreprises considéreront la sécurité comme faisant partie de l'approche globale de la gestion des risques, car une attaque réussie peut avoir un impact important sur l'entreprise. Les conseils d'administration deviendront également plus avisés en matière de stratégies numériques et informatiques, au lieu de laisser les mises en œuvre à la seule fonction technologique. Cela signifie que les responsables de la sécurité informatique devront fournir des mises à jour régulières sur l'atteinte des objectifs et sur l'utilisation des budgets. Le plus grand changement est que ces mises à jour seront comprises, et surtout écoutées, ce qui n'était pas souvent le cas jusqu'alors.
Tendance n° 2 - Les primes d'assurance des polices cyber vont entraîner des changements de stratégie et d'approche des dépenses.
Au cours des dernières années, la cyberassurance a gagné en popularité en tant que moyen pour les entreprises de gérer le risque cyber. En souscrivant des polices, les entreprises pouvaient atténuer certains effets en cas d'attaque. Toutefois, bon nombre de ces premières polices doit être renouvelé en 2022 et le paysage a considérablement changé.
Selon un cabinet d'assurance, les primes de cyberassurance ont augmenté de 300% (niveau mondial) au cours du dernier trimestre 2021. Dans ces nouvelles polices, la couverture des ransomwares est parfois supprimée, de sorte que les pertes consécutives à ces attaques ou les paiements de rançons aux attaquants ne seront plus couverts. Le débat sur le paiement des rançon a été une zone grise dans le passé, mais ce ne sera plus le cas. Cela signifie que la cyberassurance n'est plus nécessairement l'option la moins chère pour protéger l'entreprise contre l'impact des ransomwares, comme elle a pu l'être par le passé.
Quel sera l'impact en 2022 ? Les primes vont encore augmenter, de sorte que de nombreuses organisations vont investir dans des ressources de sécurité internes plutôt que de payer un fournisseur externe (assureur) qui peut ou non les couvrir lorsqu'elles sont confrontées à un problème. Les organisations devront être beaucoup plus regardantes dans la planification de la sécurité, notamment en ce qui concerne les ransomwares. Il s'agit surtout d'empêcher l'exploitation des problèmes en éliminant rapidement les failles de sécurité et en mettant en place une approche complète de sauvegarde des données afin de garantir une récupération rapide et la reprise de l'activité.
En 2022, nous verrons également les assureurs commencer à imposer une hygiène informatique "de base" avant d'accepter de couvrir une entreprise, et on peut penser que les assureurs exigeront des contrôles pour vérifier que les entreprises qu'ils couvrent se conforment à ces nouvelles règles.
Tendance n° 3 - La consolidation et l'intégration seront les mantras de 2022
Ces dernières années, les entreprises ont investi des sommes considérables dans leur sécurité, et cela ne s'arrêtera pas en 2022. Le problème est que, dans la course à l'adoption de nouveaux outils, l'intégration a souffert. Des études menées par IBM ont montré que les organisations qui déploient beaucoup d'outils sont presque 10 % moins efficaces dans la détection des menaces par rapport à celles qui sont plus sélectives.
En 2022, de nombreux RSSI voudront faire un meilleur usage de leurs budgets et équipes. Sous la pression des conseils d'administration, ils se sont engagés à gérer la sécurité avec succès, et ils doivent maintenant faire en sorte que tout fonctionne de concert. Pour ce faire, les DSI/RSSI devront consolider les solutions mises en place et leurs acquis au fil du temps.
Cet exercice de consolidation peut contribuer à améliorer la sécurité, mais il s'accompagne également d'un certain nombre de connotations peu utiles. Tout d'abord, les oreilles des directeurs financiers se dressent généralement car ils supposent immédiatement que la consolidation entraînera des économies. De même, les équipes informatiques peuvent penser qu'elles trouveront un outil unique, sorte de martingale pour couvrir tous les cas de figure et se débarrasser du reste. Malheureusement, ces deux choses ne sont pas possibles d'emblée.
En 2022, l'accent sera mis sur l'intégration et ce, à un niveau plus profond que celui de la simple plateforme SIEM*. Les entreprises devront réévaluer leur approche de l'intégration en fonction des menaces auxquelles elles s'attendent à voir apparaitre dans les mois et les années à venir.
Adrien Caprai
* Un SIEM collecte des données de sécurité à partir des appareils réseau, serveurs, contrôleurs de domaine et plus encore. Le SIEM stocke, normalise, agrège et analyse ces données pour identifier les tendances, détecter les menaces et permettre aux organisations d'enquêter sur toutes les alertes
- Anmelden oder Registrieren, um Kommentare verfassen zu können