Pour les jeunes, la RSE est surtout de la communication

Quelle est la principale raison qui pousse les entreprises à mettre en place une politique de Responsabilité sociétale des entreprises (RSE) ? Réduire leur impact environnemental ? Améliorer leur impact social ? Non, répondent les jeunes financiers. Selon eux, les entreprises le font avant tout pour… redorer leur image. La RSE serait principalement un atout marketing. C'est ce qui ressort d'une étude publiée ce lundi 7 septembre sur la perception de la RSE par les étudiants et jeunes diplômés du secteur financier. Une enquête qui a été menée en ligne auprès de 215 d'entre eux, du 2 avril au 21 juin, par le cabinet d'audit et conseil Denjean & Associés et par le réseau social professionnel en finance Dogfinance.
Une entreprise qui met en place une politique RSE intègre des préoccupations sociales et environnementales à ses activités, au-delà du cadre légal qui lui est imposé. Mais ce surcroît d'engagement ne convainc pas toujours. Pour deux tiers des répondants, la RSE, c'est principalement de la communication qui ne repose sur aucune action concrète, indique l'étude. Alors même que « les futurs collaborateurs ont grandi en étant responsabilisés sur les questions d'éthiques et d'environnement et veulent contribuer au monde de demain », précise Thierry Denjean, président de Denjean & Associés.
Ce chiffre pourrait s'expliquer en partie par leur méconnaissance de la RSE de leur employeur. 48 % des jeunes diplômés s'estiment insatisfaits de leur connaissance de la politique RSE de leur employeur, tandis que 37 % se disent satisfaits et 15 % pas concernés. En somme, l'entreprise gagnerait en crédibilité en informant davantage ses collaborateurs sur ses actions, pour que la RSE soit moins obscure.
Autre enseignement : travailler dans une entreprise qui a mis en oeuvre une démarche RSE n'est pas primordial pour les étudiants en finance. 27 % d'entre eux déclarent envisager de travailler pour un employeur qui n'est pas fortement impliqué dans une démarche RSE, tandis que 36 % ne l'envisagent pas, et que 37 % sont indécis.
L'entreprise, un acteur important
Pourtant, les jeunes financiers sont convaincus que l'entreprise a un rôle à jouer sur la question environnementale. 73 % des étudiants et 65 % des diplômés interrogés estiment que l'entreprise est la première à pouvoir apporter des solutions aux enjeux de développement durable, devant l'Etat, les ONG et les artistes. Selon les répondants, les entreprises devraient avoir pour missions fondamentales de réduire leur impact environnemental, de garantir les bonnes conditions de travail de leurs salariés et de respecter les principes d'éthiques.
Les jeunes financiers seraient motivés à s'impliquer dans la RSE de leur employeur pour contribuer aux grands enjeux sociétaux, se sentir utile et développer leurs compétences.
Dans quoi aimeraient-ils s'investir ? Ils souhaiteraient s'engager dans la protection de l'environnement, avec des actions du quotidien. En passant au zéro papier par exemple, ou en réduisant la consommation de plastique à la pause déjeuner. lls voudraient également s'engager dans l'amélioration des conditions de travail en favorisant le bien-être au travail, en agissant sur l'égalité des salariés au sein de l'entreprise, en améliorant le processus de recrutement…
Les jeunes financiers se montrent aussi très volontaires « pour agir directement sur le modèle économique de l'entreprise, sans doute perçu comme ce qu'il y a de plus efficace pour « changer les choses » et dépasser le biais marketing d'une RSE trop souvent perçue comme complaisante », indique l'étude. Enfin, ils aimeraient initier leurs collaborateurs et les sensibiliser à la RSE. De quoi, peut-être, enclencher un cercle vertueux.







Intelligence Artificielle : Taggage, Annotation ou Labellisation de teste ou d'images

Nous intervenons soit en développement Big Data, Intelligence Articielle ou ChatBot ou en labelisation, taggage.
Par exemple, sur un projet chatbot que nous avons développé, nous intervenons pour écrire les scénarios d'échange du robot avec l'utilisateur et nous vérifions que le robot à bien compris la question.
Aussi, nous taggons des images afin de nous assurons que ce que le robot à analyser sur l'image est bien cohérent par rapport à ce qu'il devait y voir.
Ainsi nous améliorons les programmes.







Annuaire

Voici un très bon annuaire : https://www.one-annuaire.fr/

Annuaire Gratuit pour vos recherches sur Internet




Comparaison AWS, GCP et Azure

Amazon Web Services : Les premiers sur le marché, ils offrent la plus large offre de produits et services et ont généré un chiffre d’affaires de 25,7 milliards de dollars en 2018. Amazon domine le marché de l’informatique en nuage depuis une décennie et son expérience dans le nuage est sans égale .

Un vaste ensemble d’outils qui continue de croître de manière exponentielle, les fonctionnalités offertes par Amazon Web Services sont incomparables. Son orientation quasi unique vers le cloud public et la complexité de la tarification et des coûts sont aujourd’hui ses faiblesses.

Microsoft Azure : Dans leur rapport annuel 2018, ils ont généré des revenus de 23,2 milliards de dollars en nuage commercial. Le principal avantage de Microsoft est que de nombreuses entreprises utilisent déjà leurs services (Office, SharePoint, Windows / SQL Server, etc.).

Très proche d’Amazon dans la concurrence, Microsoft Azure dispose d’une infrastructure cloud très performante qui est très orientée vers et pour les entreprises, l’écosystème Windows et son cloud hybride est sa force. L’assistance technique, la documentation disponible, et l’offre de formation semble être actuellement ses points faibles

Google Cloud Platform : Dernier arrivé dans la course, actuellement, il investit massivement pour s’imposer auprès des entreprises et les séduire. Google n’a pas annoncé ses revenus dans le cloud cette année, mais son PDG, Sundar Pichai, l’a qualifié de « marché en croissance rapide, générant plusieurs milliards de dollars », et le cabinet d’études Canalys a estimé le chiffre d’affaires de Google à 6,8 milliards de dollars dans le rapport 2018 de Google.

Le deep learning, l’intelligence artificielle, le machine learning, l’analyse de donnée et l’engagement en faveur de l’open source sont ses points forts. Son infrastructure n’est pas encore développée comme celles d’AWS et d’Azure.

AWS vs AZURE vs GOOGLE en détail :
Calculer
Les principaux services de calcul dans la bataille entre AWS vs Azure vs Google sont Amazon Elastic Compute Cloud (Amazon EC2) d’ AWS, les machines virtuelles de Microsoft Azure et Compute Engine deGoogle Cloud . Tous trois offrent évolutivité, sécurité maximale, flexibilité, facturation à la seconde, une grande variété de systèmes d’exploitation pris en charge et une vitesse élevée! Chaque offre des versions d’essai et des produits et services gratuits. Voyons ce qui rend chaque unique.

AWS Compute :
Amazon Elastic Compute Cloud Le service Web fournit une capacité de calcul évolutive dans le cloud. Vous pouvez facilement augmenter et diminuer la capacité en quelques minutes et mettre en service des milliers d’instances de serveur simultanément. AWS Auto Scaling surveille vos applications et adapte automatiquement la capacité pour maintenir des performances optimales au coût le plus bas possible.Amazon EC2 est intégré à une vaste majorité de services AWS, offrant une compatibilité et une flexibilité optimales. Les serveurs Amazon sont extrêmement fiables et leur engagement en matière de SLA est une disponibilité de 99,99% pour chaque région EC2.

Autres produits de calcul d’Amazon:

Amazon EC2 Auto Scaling
Service de conteneur Amazon Elastic
Amazon Elastic Container Service pour Kubernetes
Registre de conteneurs Amazon Elastic
Amazon Lightsail
Lot AWS
AWS Elastic Beanstalk
AWS Fargate
AWS Lambda
AWS Serverless Application Repository
VMware Cloud sur AWS
Avant-postes AWS
Équilibrage de charge élastique
Microsoft Azure Compute:
Les machines virtuelles virtualisent un large éventail de solutions informatiques, notamment le développement et les tests, l’exécution d’applications et l’extension de centre de données. Son logiciel open source prend en charge une gamme complète de distributions Linux, Windows Server, SQL Server, Oracle, IBM et SAP. Des machines virtuelles peuvent être créées pour des serveurs sur site et sur le cloud, et peuvent être intégrées pour fournir un équilibrage de charge global. Il est facile de déployer des applications d’entreprise Microsoft sur vos machines virtuelles.

Ses autres produits de calcul sont :

Machines virtuelles
Ensembles d’échelle de machine virtuelle
Service Azure Kubernetes (AKS)
Fonctions Azure
Tissu de service
Service d’application
Instances de conteneur
Lot
Azure Batch AI
SQL Server sur des machines virtuelles
Services Cloud
SAP HANA sur Azure Large Instances
Applications Web
Application mobile
Applications API
Azure CycleCloud
Google Cloud Compute :
Google Compute Engine crée des machines virtuelles qui s’exécutent dans ses centres de données et son réseau fibre mondial. Il prend en charge les instances avec jusqu’à 160 CPU virtuels, 3,75 To de mémoire et des disques SSD et HDD persistants d’une taille allant jusqu’à 64 To. Google réduit automatiquement les prix des charges de travail de longue durée et son réseau mondial de datacenters, respectueux de l’environnement, consomme 50% moins d’énergie que les datacenters classiques.

Compute Engine offre un large éventail de fonctionnalités, notamment :

Container Orchestration avec Google Kubernetes Engine (Kubernetes a été développé à l’origine par Google)
Types de machines prédéfinis et personnalisés
SSD local
Le stockage
Les données sont stockées différemment en fonction du type, du cas d’utilisation et des exigences. Une vidéo YouTube populaire, vos photos de classe et vos documents de sécurité nationale classifiés ont des exigences différentes en matière de sécurité, d’accès et de disponibilité. Le stockage d’objets est idéal pour les grandes quantités de données non structurées, tandis que le stockage de blocs est optimisé pour les données structurées.

Stockage AWS :
Amazon Simple Storage Service (Amazon S3) est le principal service de stockage d’objets évolutifs d’Amazon. Toute quantité de données peut être stockée et protégée. Amazon S3 est conçu pour 99,999999999% de durabilité et stocke des millions d’applications de sociétés du monde entier. Ses cas d’utilisation incluent: la sauvegarde et la restauration, la reprise après sinistre, l’archivage, les analyses de lacs de données et de données volumineuses, le stockage en cloud hybride et les données d’application en nuage.

D’autres produits de stockage pour des cas d’utilisation plus spécialisés sont:

Amazon Elastic Block Store (EBS)
Système de fichiers Amazon Elastic (EFS)
Amazon S3 Glacier
AWS Storage Gateway
Famille AWS Snow
Amazon FSx pour Lustre
Amazon FSx pour serveur de fichiers Windows
Sauvegarde AWS
Microsoft Azure Storage
Azure Storage est le service de stockage de données complet de Microsoft. Il comprend les types de stockage suivants:

Fichier – Système de fichiers multiplateforme simple
Disque – espace disque persistant et performant pour tout type de charge de travail
Blob – pour les données non structurées
Data Lake Storage – spécialement conçu et optimisé pour l’analyse de données
Archive – spécifiquement pour les données rarement consultées, peu utilisées
Google Cloud Storage
Google Cloud Storage est le stockage d’objets unifié de Google. L’approche de Google en matière de stockage est la plus simple et la plus pratique des trois. Il possède une seule API pour toutes les classes de stockage. La gestion du cycle de vie des objets vous aide à optimiser automatiquement le rapport prix / performance pour toutes les classes.

Il a quatre classes de stockage:

Multirégional – pour la géo-redondance et la latence de l’utilisateur final
Régional – pour un accès local plus performant
Nearline – pour les données auxquelles on accède généralement moins d’une fois par mois
Coldline – pour les données généralement consultées moins d’une fois par an
La sécurité

Il ne fait aucun doute qu’Amazon, Microsoft et Google sont parmi les meilleurs en matière de sécurité des données. Ils offrent tous des conseils et une assistance en matière de sécurité. Nous n’allons pas vous dire que l’un est plus sécurisé que l’autre; au lieu de cela, nous soulignerons certains de leurs services et fonctionnalités impressionnants!

Sécurité AWS
Les partenaires AWS proposent des centaines de solutions de sécurité de pointe qui complètent les services AWS existants.
Amazon Inspector évalue automatiquement vos applications pour les vulnérabilités et les écarts par rapport aux meilleures pratiques
Avec l’autorisation, vous pouvez effectuer des tests d’intrusion sur ou à partir de vos instances EC2 et RDS, mais bien entendu, il existe des termes et conditions.
Microsoft Azure Security
Microsoft compte sur une équipe de plus de 3 500 experts mondiaux en cybersécurité qui travaillent jour et nuit pour protéger vos actifs et vos données.
Azure Security Center offre une vue et un contrôle unifiés de la sécurité pour toutes vos charges de travail sur site et dans le cloud.
Google Cloud Security
Les centres de données Google sont dotés de la détection d’intrusion par faisceau laser et de la biométrie. Moins d’un pour cent des employés de Google ne pourront jamais entrer dans un centre de données.
Les données stockées dans l’infrastructure cloud de Google sont automatiquement cryptées au repos et distribuées afin d’optimiser la disponibilité et la fiabilité.
Le prix
Quand il s’agit de comparer les prix, les choses peuvent devenir très compliquées. Chaque fournisseur propose des services uniques, des prix spéciaux et des remises en fonction de nombreux facteurs et situations. De plus, les prix changent tout le temps! Sans un cas d’utilisation très détaillé, il est difficile d’obtenir une comparaison précise et juste.

Google offre généralement les prix les plus bas car il est en concurrence avec les deux fournisseurs de cloud les plus établis. AWS propose toutefois de meilleures offres pour certains de ses engagements à long terme. Nous avons également remarqué que Microsoft et Google ont tendance à indiquer combien vous économiserez si vous les choisissez via AWS.

Conclusion :
Les trois leader offrent tous de très bons produits, cependant Amazon est aujourd’hui le plus mature et propose le plus large éventail de produits et service. Azure est à conseiller à toute organisation qui s’appuie déjà beaucoup sur les technologies et outils Microsoft. Pour Google son argument le plus fort aujourd’hui est son coût.




SAM et Finops

SAM
Gouvernance. Nous réalisons une analyse de la maturité du SAM et vous accompagnons à la définition de modèles de gouvernance du SAM, des rôles et des responsabilités.
Organisation. Nous vous aidons à définir un modèle d’organisation du SAM, et à choisir le meilleur modèle parmi les modèles centralisé, distribué, interne et externalisé, en fonction des spécificités de votre contexte et de vos besoins.
Processus. Nous réalisons le design et/ou re-engineering des processus pour une gestion optimale des licences et un contrôle des risques.
Outils. Nous identification les outils pertinents en appui au processus SAM, en exploitant ceux déjà présents et/ou en participant à la sélection des solutions les plus adaptées parmi celles disponibles sur le marché.

FINOPS
Organisation & Pilotage. Nous réalisons une analyse de l’existant, une évaluation de la maturité du FinOps et une identification des zones d’amélioration et vous accompagnons à la définition d’un modèle d’organisation cible.
Suivi des usages. Nous vous aidons à mettre en place une historisation de l'évolution des usages des services cloud et des processus de mesure de l'utilisation réelle de ces services, nous identifions des pistes d'optimisation avec une analyse de risques et opportunités.
Optimisation des dépenses cloud. Nous vous aidons à obtenir une vision détaillée consolidée des coûts liés au cloud, en hiérarchisant les fournisseurs et solutions cloud et nous réalisons une projection des consommations de services puis identifions des pistes d'optimisation.
Sélection d’outils FinOps. Nous analysons les outils du marché et vous accompagnons dans la sélection de la solution FinOps la plus pertinente en fonction du périmètre à couvrir et de vos spécificités. Nous vous accompagnons lors du déploiement de la solution choisie, jusqu’à la conduite du changement.




Programmation objet contre programmation fonctionnelle


Programmation Orientée Objet
La programmation orientée objet est la programmation avec les objets. Un objet est une entité avec une identité et un état. Il peut répondre aux messages qui lui sont envoyés en appelant l’une de ses méthodes qui correspond au message reçu.

L’idée est que l’état est encapsulé dans l’objet et ne peut être manipulé qu’en envoyant des messages à l’objet (également appelé «méthodes d’appel d’un objet»). Dans une méthode, vous avez accès à l’état de l’objet, généralement via une liaison de variable spéciale appelée « this » ou « self ». Le principe de cacher l’état de l’objet s’appelle « Encapsulation ».

Les objets sont souvent décrits à l’aide de classes décrivant les méthodes et les attributs pris en charge par ces objets. Les classes peuvent hériter des méthodes des super classes. L’héritage est censé être un outil d’abstraction. On peut résumer une interface commune à une classe parente. Cela permet également de mettre en œuvre une logique qui gère les objets polymorphes – des objets de types différents mais avec une interface au moins partiellement compatible.

Programmation Fonctionnelle
La programmation fonctionnelle est une programmation avec des fonctions. Précisément des fonctions en tant que valeurs. Une fonction est un outil ultime pour l’abstraction et la composition dans des programmes fonctionnels. La logique et l’état sont maintenus séparés. Vous écrivez des fonctions qui obtiennent des données et les transforment en d’autres données.

Différence clé entre Programmation orientée objet et Programmation fonctionnelle
La programmation fonctionnelle est utilisée pour effectuer de nombreuses opérations différentes pour lesquelles les données sont fixes. Programmation orientée objet utilisée pour effectuer quelques opérations ayant un comportement commun et différentes variantes.
La programmation fonctionnelle consiste à avoir un modèle de programmation sans état. La programmation orientée objet consiste à avoir un modèle de programmation avec état.
En programmation fonctionnelle, un état n’existe pas. En programmation orientée objet, l’état existe.
En programmation fonctionnelle, une fonction est l’unité de manipulation principale. En POO, un objet est l’unité de manipulation principale.
En programmation fonctionnelle, ses fonctions n’ont pas d’effets secondaires, cela n’a aucun impact sur le code qui s’exécute sur plusieurs processeurs. En programmation orientée objet, ses méthodes peuvent avoir des effets secondaires et peuvent avoir un impact sur les processeurs.
La programmation fonctionnelle prend principalement en charge l’abstraction sur les données et l’abstraction sur le comportement. La programmation orientée objet prend principalement en charge l’abstraction sur les données uniquement.
La programmation fonctionnelle offre de hautes performances dans le traitement des données volumineuses pour les applications. La programmation orientée objet n’est pas bonne pour le traitement de données volumineuses.




Scala 3, un langage de plus haut niveau sur la machine virtuelle Java


Créé par le LAMP group à l' Ecole Polytechnique Fédérale de Lausane (EPFL), conduit par le professeur Martin Odersky, Scala est un langage de programmation universel conçu pour permettre un code concis et simple. Il est proche de Java avec des emprunts à divers autres langages mais apporte aussi des innovations et des simplification, ce qui fait penser à JavaScript. Cela se traduit par un compilation plus lente.
Il s'inspire de la programmation orienté-objet autant que des langages fonctionnels. Selon les auteurs, le code Scala est de deux à trois fois plus concis que le code équivalent en Java. Mais il est aussi possible d'écrire du code aussi illisible que celui de Perl. Comme Perl d'ailleurs, il permet de faire la même chose de façons très différentes.
Le code peut être compilé en bytecode Java ou .NET et il est compatible avec leurs runtimes respectifs. En février 2015, Scala.js le compilateur en JavaScript est déclaré utilisable en production.

Le mot scala est un raccourci pour SCAlable LAnguage et signifie aussi escalier en italien, ce qui symbolise la programmation par paliers.

Le compilateur scalac est sous licence BSD. Depuis 2014, les principaux développeurs du compilateurs travaillent sur un nouveau langage, Dotty, version simplifiée de Scala, qui doit permettre de supprimer des problèmes difficiles à résoudre pour perfectionner ce compilateur.

Le language de programmation Scala
Le 14 mars 2017, est annoncé Scala Native. (Article en anglais). Il s'agit de remplacer la machine virtuelle Java par LLVM et donc de créer des binaires exécutables. Ce n'est réellement utilisable en production toutefois que si cela s'accompagne d'une bibliothèque suffisante.

Caractéristiques de Scala
Il faut savoir que de nombreux éléments du langage comme par exemple return ou for ne fonctionnent pas comme on en à l'habitude dans les précédents langages.

Syntaxe et constructs:

Fonctionnel: les fonctions sont des valeurs.
Orienté-objet: toutes les valeurs sont des objets.
Statiquement typé.
Les déclarations sont inversées par rapport à C: on donne le nom d'une variable puis on définit son type.
Une fonction est définie par l'opérateur def et l'en-tête est comme en Pascal.
Pas de terminateur tel que ; à la fin des instructions (mais on peut l'ajouter en option).
On définit une classe avec le constructeur en en-tête, ce qui est plus concis. Voir exemples.
Les traits sont des interfaces comme en Java, mais dont les méthodes peuvent être définies ou non. Quand on utilise un trait pour compléter une classe, on doit définir les méthodes qui ne le sont pas. Donc leur action dépend du contexte d'utilisation.
Les actors sont des objets qui fonctionnent en concurrence (en mode synchrone ou asynchrone) et communiquent par messages. On définit un acteur par une liste des messages qu'il peut recevoir. Il peut réagir à un message en envoyant un autre, ainsi un système d'échanges peut être créé.
Pas de break et de continue.
Le type val équivaut à une constante, mais on peut l'initialiser avec une variable.
De nombreuses structures de collections: List, Vector, Set, Map, Seq, Pair, Triple.
Du code XML peut être inclut dans le source, comme le fait le langage Scriptol.
Autres possibilités:

Fonctions anonymes.
Fonctions de premier ordre.
Une fonction peut contenir des fonctions.
Classes génériques.
On définit une case class pour le pattern matching, autrement dit pour sélectionnet une classe parmi d'autres dans une liste selon une condition.
Méthodes polymorphiques. Les arguments peuvent changer de type.
Extensible: une méthode peut être utilisée comme opérateur.
Abstractions.
Fonctions imbriquées.
Expressions régulières définies par du code procédural.

Pourquoi utiliser Scala?
Scala facilite l'évolution progressive des programmes dans le temps.
Le code Scala peut facilement s'interfacer avec du code Java prééxistant. Il est en fait compilé en bytecode Java. On peut donc utiliser les deux langages dans un même programme, Scala offrant notamment l'avantage d'une plus grande concision.
Scala permet de traiter facilement des documents XML.

Le site social Twitter a abandonné le langage Ruby pour le backend et programmé ses services en Scala, cela pour profiter de la nature évolutive du langage. Le site augmente progressivement son audience et offre de nouveaux services avec le temps, d'où le besoin d'un langage qui facilite l'extension des programmes sans les réécrire.

Et pourquoi ne pas utiliser Scala?

Parmi les inconvénients, un temps de compilation très long même pour de petits programmes, la complexité de la syntaxe, une pauvre documentation, passer d'une bibliothèque à l'autre suppose réapprendre le role des opérateurs.
Il faut être spécialiste de Scala pour l'utiliser.




Pourquoi la programmation fonctionnelle n’est-elle pas la norme de l’industrie du code ?


L’auteur de « Elm in action » s'exprime
« C’est une question de temps avant que la POO soit détrônée »

Il existe une panoplie de manières d’aborder la programmation informatique. Dans le jargon du milieu, on parle de paradigme de programmation. En incluant celui dit impératif, on répertorie à minima trois grandes familles et leurs dérivés. Certaines de ces approches font quasiment office de norme dans l’actuelle industrie de la programmation informatique. C’est par exemple le cas de la programmation orientée objet dont on a appris qu’elle permet d’améliorer l’organisation des bases de code procédurales.

Toutefois, Richard Feldman est d’avis que « l’on est quelque part au milieu d’une transition du style programmation orientée objet vers celui dit fonctionnel. » « Des langages de programmation comme Kotlin prennent à la fois la programmation orientée objet et celle dite fonctionnelle en charge. C’est quelque chose que vous n’auriez pas vu dans une FAQ du langage Java dans les années ‘90. En fait, de plus en plus de langages mettent en avant le support du style fonctionnel en avant comme argument de vente. Les développements en cours laissent penser que de plus en plus d’acteurs de la filière sont d’accord que l’approche fonctionnelle est bonne », ajoute-t-il.

Il y a quelques mois, l’étude « Emploi développeur 2018 » est parue sur cette plateforme. En tête de liste des langages les plus demandés et les mieux payés, on retrouve Java. Sa première présentation officielle s’est faite le 23 mai 1995 au SunWorld comme langage de programmation structuré, impératif et orientée objet. C’est Java 8 (sorti en 2014) qui est venu mettre les développeurs qui font usage de ce langage de programmation sur les rails du style fonctionnel au travers des expressions lambdas. En fait, la remarque de Feldman vaut pour bon nombre de langages de cette enquête dvp pour lesquels on note que de plus en plus de livres orientés programmation fonctionnelle paraissent.

« C’est le signe que quelque chose a changé des années ‘90 à nos jours. L’approche fonctionnelle attire de plus en plus d’acteurs de la filière. Ce n’est plus qu’une question de temps pour la voir s’imposer », conclut Feldman.

La montée en puissance de langages de programmation pour le web comme Elm au travers de bibliothèques comme Elm-ui pourrait accélérer la transition entrevue. Cela permettrait de lister la programmation d’interfaces utilisateur comme domaine « phare » d’un langage à paradigme fonctionnel. En sus, des facteurs additionnels comme le fait pour certaines plateformes de réserver l’exclusivité à des langages de programmation à paradigme fonctionnel pourraient contribuer à poser le tableau tel que vu par Feldman. Ceci c’est sans prise en compte d’ingrédients comme le marketing autour des solutions proposées. Il s’agit là d’une liste non exhaustive d’atouts que l’approche fonctionnelle ne réunit pas à date, mais qui a contribué à propulser l’approche orientée objet. Sur l’axe de l’exclusivité de la plateforme, il n’y a qu’a voir avec C# dont on peut penser que son lancement était destiné à attirer des développeurs Java. Enfin, comment oublier la campagne à 500 millions de dollars que Sun a mise sur pied en 2003 pour la promotion de Java.

La sortie de Richard Feldman n’est pas sans faire penser à des développements antérieurs qui suggèrent de passer à l’approche fonctionnelle.

En effet, à mi-parcours de l’année qui tire à son terme, Ilya Suzdalnitski de l’entreprise Replicon affirmait que « considérer la programmation orientée objet comme standard de l’industrie pour l’organisation des bases de code est, pour lui, une grosse erreur. » Son développement laissait filtrer que l’usage de la programmation orientée objet dévie l’attention des développeurs de ce qui doit la retenir : la résolution des problèmes. « L’approche orientée objet introduit plus de complexité que l’inverse surtout pour des bases de code importantes », avait-il souligné avant d’ajouter qu’ « il est difficile d’écrire du code orienté objet aisé à maintenir, les tests unitaires sont difficiles à appliquer à une base de code montée suivant l’approche orientée objet, le refactoring de code est une vraie galère sans des outils comme Resharper. »

L’ingénieur de Replicon avait insisté sur ceci que la racine des maux avec la POO telle que pratiquée via des langages comme Java ou C# est qu’elle n’est pas implémentée telle qu’Alan Kay l’a conçue. « On n’aurait jamais dû parler de concepts comme l’héritage, le polymorphisme ou avoir à traiter avec une myriade de patrons de conception », avait-il souligné. Ilya Suzdalnitski accusait les langages phares du moment de mettre en avant une POO qui ne s’aligne pas sur la définition originelle de l’encapsulation et sur la communication par messages entre programmes indépendants.

« En Erlang, on pratique la programmation orientée objet sous sa forme la plus pure. À l’inverse des langages de programmation phares, Erlang s’appuie sur l’idée centrale de la POO – les messages. Dans ce langage, les objets communiquent via des messages immuables », avait-il indiqué.

Au travers de cet exemple, l’ingénieur de Replicon suggérait que programmation fonctionnelle et programmation orientée objet « pure » sont une seule et même chose. En droite ligne avec ce détail, il avait surtout mis en avant la supériorité de la programmation fonctionnelle vis-à-vis de la POO telle que pratiquée avec Java, C#, C++ et autres.

« Le but ultime de tout développeur de logiciel devrait être d'écrire du code fiable. Rien d'autre n'a d'importance si le code est bogué et peu fiable. Et quelle est la meilleure façon d'écrire un code fiable ? Simplicité. La simplicité est le contraire de la complexité. Erlang est probablement le langage le plus fiable au monde. La majeure partie de l'infrastructure mondiale des télécommunications (et donc de l'Internet) s'appuie sur ce dernier. Certains des systèmes écrits en Erlang ont une fiabilité de 99.999999999 % », avait-il insisté.

Dans sa présentation, Feldman rappelle qu’il a travaillé sur plusieurs projets en s’appuyant sur l’approche orientée objet avant de passer à l’approche fonctionnelle. Depuis des années qu’il pratique cette dernière, il l’a trouvée intéressante, ce qui l’a amené à se poser la question de savoir pourquoi l’industrie continue de faire usage de l’approche orientée objet.




Grâce au WMS et TMS, optimisation de coûts = moins d'énergie consommée et meilleur bilan carbone


Le secteur de la logistique, grand consommateur d’énergie, est fortement impliqué dans la transition écologique.
La mondialisation des échanges, le développement du commerce en ligne et l’accroissement de la densité urbaine
sont des tendances qui, si elles se poursuivent, vont impacter fortement la quantité et la nature des flux transportés,
les émissions polluantes et autres externalités négatives du secteur. La diffusion des outils d’’information et de
traçabilité permet la collaboration entre les professionnels du secteur tout au long de la chaîne logistique afin
d’optimiser les flux transportés et d’agir sur les temps morts, le choix modal, la logistique inverse (du client au
fournisseur, par exemple pour la gestion des déchets). Les professionnels de la logistique doivent alors s’adapter en
développant de nouvelles compétences pour répondre aux nouveaux enjeux numériques et écologiques.

Le TMS permet de réduire le nombre
de kilomètres parcourus et
d’éviter les trajets à vide, ce qui
signifie une baisse des
émissions de CO2, de la
consommation de carburant et
de l’usure des véhicules



Le WMS permet de réduire le nombre
de kilomètres parcourus dans l'entrepôts à l'aide de chariots, ce qui
signifie une baisse de la
consommation électrique et
de l’usure des véhicules.




Les nouveaux métiers IT de contrôle de coûts que nous possédons


1. Le Software asset Manager – SAM
De façon très concrète, un projet SAM géré par un de nos consultants dans une organisation permet :
- De savoir ce qui est légalement installé.
- D’acquérir seulement ce dont on a besoin.
- D’utiliser au mieux les licences acquises (à toutes les étapes de leur cycle de vie).
Un projet SAM est donc une activité structurée et continue avec un suivi de la conformité et l’optimisation de son patrimoine logiciel à intervalles réguliers.

Les approches de nos consultants

• Le "cost Killing"
La part croissante des dépenses informatiques dans les budgets et notamment les investissements liés aux logiciels et leur maintenance amènent les organisations à étudier toutes les opportunités de rationalisation.
La mise en place d’une démarche SAM est un moyen d’identifier les leviers d’économie.

• La préparation d’un nouveau contrat, des renouvellements et des renégociations
Parmi les principales raisons de lancer une démarche SAM, nous pouvons évoquer une préparation à la signature de nouveaux contrats ou au renouvellement et à la renégociation de contrats existants.
En effet l’un des fondements du SAM est la maitrise des règles d’usages ainsi que des contrats proposés par un éditeur.

• Le Support à l’audit
La raison la plus commune de la mise en place d’une démarche SAM est sans aucun doute la réception d’un courrier annonçant un audit éditeur.
Cette démarche est de plus en plus répandue et place les organisations dans une position souvent inconfortable.



2. Finops : Expert en service Cloud
FinOps est une approche cadrée pour la gouvernance des dépenses dans le Cloud1. Basée sur la contraction des mots Finance et Opérations (utilisant le concept de DevOps qui contracte Développement et Opérations), son objectif est de donner de la visibilité sur la consommation Cloud et de l'optimiser.
La méthodologie 4R (Reduce, Rightsize, Reserve, Report), conduite chez des comptes de toute taille, dégage un ensemble de mesures faisant gagner en moyenne 25% de la facture en première passe.
Nous vous aidons à identifier les ressources « zombies » ou iddle, à redimensionner les instances ou le stockage en fonction des besoins réellement constatés, à éliminer les instances legacy, à maximiser les possibilités que vous offre le modèle tarifaire du cloud (reserved instances), et à initier une boucle vertueuse avec les utilisateurs grâce à des tableaux de bord personnalisés.
Connaissant aussi bien les possibilités techniques que les subtilités financières du cloud, nos consultants vous aident à démontrer la valeur du business case de vos projets cloud, et à dégager de nouveaux budgets grâce aux économies réalisées.

Nous avons étudié les principaux outils du marché (AWS Trusted Advisor, Cloudability, Cloudcheckr, Cloudhealth etc..). Nous les connaissons bien, savons à quels cas d’usage ils sont bien adaptés et en sommes distributeurs / intégrateurs en France, pour les mettre en place dans votre environnement.
Nous mettons également à disposition de nos clients notre propre plateforme accessible en SaaS (basée sur Cloudcheckr), qui vous permet de disposer au quotidien de l’ensemble des tableaux de bord, alertes et recommandations nécessaires à une bonne gestion de vos comptes AWS.




Nouveauté Manhattan : Manhattan Active WM

A l’occasion de sa conférence clients Momentum Connect, Manhattan Associates (NASDAQ: MANH), le leader des logiciels de gestion d'entrepôt (WMS), a annoncé le lancement de sa nouvelle solution Manhattan Active® Warehouse Management. Il s’agit du premier système de gestion d'entrepôt (WMS) cloud-natif qui unifie tous les aspects de la distribution et ne requiert plus aucune migration logicielle.
Entièrement conçue à partir de microservices et extrêmement flexible, Manhattan Active WM permet d’atteindre des niveaux inédits en termes de vélocité, d'adaptabilité et de facilité d'utilisation dans la gestion des activités de distribution.
Une avancée décisive dans la technologie de gestion d'entrepôt
« Manhattan Active WM est le résultat d'une collaboration de plusieurs années avec nos clients », déclare Brian Kinsella, vice-président senior Product Management chez Manhattan Associates. « Aujourd'hui, nous proposons un WMS qui est toujours à jour et ne nécessite plus de montées de version, tout en restant entièrement extensible. Nous offrons à chaque utilisateur connecté à la solution des expériences mobiles nouvelles et modernes. Nous proposons également une architecture qui s’adapte automatiquement à mesure que les volumes augmentent et qui intègre du Machine Learning au cœur même de l'application. »

Manhattan Active WM propose des expériences utilisateurs totalement repensées. Conçus pour une utilisation beaucoup plus mobile que par le passé, avec un design inspiré des applications grand public, les écrans Unified Control de Manhattan Active WM permettent aux managers de visualiser, diagnostiquer et agir rapidement n'importe où dans leurs Supply Chains. Pour les opérateurs des centres de distribution, la nouvelle application WM MobileTM offre une expérience inégalée de toutes les tâches transactionnelles.

Composée de micro-services, la solution Manhattan Active WM est véritablement cloud-native. En plus d'apporter un changement radical en accélérant la vitesse de mise à disposition des innovations technologiques aux utilisateurs, cette nouvelle architecture logicielle s’adapte automatiquement et quasiment de manière infinie aux fluctuations de la demande. La solution est également conçue pour être facilement étendue au niveau des données, des services et de l'interface utilisateur afin de répondre aux besoins uniques de chaque entreprise. Pour accélérer la mise sur le marché et réduire la formation, Manhattan a également intégré de nouveaux assistants de configuration pour aider les entreprises – quels que soient leur taille et le niveau de complexité de leurs opérations – à rationaliser le processus de mise en œuvre.

Pour Miles Tedder, COO de Pet Supplies Plus : « Manhattan Active Warehouse Management nous offre une solution de gestion de la distribution qui s'adapte aussi rapidement que les besoins de nos clients, avec un accès régulier et facile aux dernières technologies et aux nouvelles fonctionnalités. Parce la partie maintenance système et logiciels est complètement intégrée à la solution, nous pouvons concentrer toute notre énergie à servir nos clients. »




Manhattan WMS

Les solutions Supply Chain ont été développées pour éliminer les silos qui existent encore aujourd’hui entre la gestion d’entrepôt, le transport et l’entreprise étendue (partenaires, prestataires, fournisseurs, …) pour permettre des opérations logistiques fluides et agiles et ainsi garantir une efficacité optimale au service de votre enseigne.


Les solutions omnicanales apportent l’infrastructure dont les enseignes ont besoin pour répondre aux nouveaux enjeux du connecté et équiper le personnel de leurs points de vente d’outils leur permettant d’offrir à leurs clients une expérience personnalisée et connectée.


Les bénéfices principaux apportés par l’implémentation de nos solutions incluent notamment :


Résoudre la problématique qui réside entre opérer de manière rentable dans un monde omni-canal en faisant correspondre l’offre et la demande, en gérant la commande, son acceptation et son délai d’exécution, en gérant le stock et la possibilité de l’acheter n’importe où et de le livrer n’importe où tout en maintenant le seuil de rentabilité souhaité.


Faciliter et transformer le rôle du personnel des points de vente vers un rôle de conseiller personnalisé en leur fournissant des outils faciles à utiliser et intégrés pour qu’ils puissent être plus proches de leurs clients tout en gérant efficacement les réceptions magasin, les retours, les commandes click & réserve, etc...


Créer de nouvelles opportunités de revenus en sauvant la vente dans le magasin grâce à une visibilité complète des stocks de l’entreprise, une flexibilité et une agilité de leur Supply Chain pour ainsi améliorer les marges.


Exécuter les commandes de la manière la plus optimisée possible pour respecter les objectifs de marge de l’entreprise tout en satisfaisant la demande du client . Coordonner les flux et échanges d’informations à travers l’écosystème logistique de l’entreprise à savoir les fournisseurs, les fabricants, les distributeurs, les clients et les transporteurs et prestataires logistiques.


Répartir les coûts de transport et de stockage intelligemment pour atteindre le niveau de services et de marge exigé à travers tous les canaux.


Apporter de la mobilité à vos équipes terrain qu’elles soient en entrepôt pour mieux gérer l’activité de préparation de commande ou en magasin pour offrir une meilleur disponibilité du personnel de vente à vos clients




Nouvelle signature

Chers amis,
Malgré les restrictions budgétaires de nos clients, nous avons réussi à faire démarrer une nouvelle prestation :
Projet WMS Reflex Logistics Solutions by Hardis Group pour faire un déploiement :

- Collecte des besoins
- Réalisation des documents de spécifications et design de la solution
- Paramétrage Reflex WMS
- Développement spécifique en Adelia
- Test et UAT Recette
- Formation
- Support correctif et évolutif




Les économies

Le jour d'après? Pour nos entreprises, l'heure est à l'économie, sans dégrader les prestations de services intellectuelles. Vous n'y avez sans doute jamais pensé, mais si un consultant WMS (non handicapé) est suivi par un commercial handicapé d'une Entreprise Adapté ou ESAT CAT (GME co-traitance), vous récupérez en fin d'année 5% sur le TJM. Si vous avez 20 millions d'euros de prestations, vous économisez 1 million. Passez de 20 millions de charges à 19 millions de charges. www.innovandco.net t.saillard@innovandco.net




Le jour d'après

Le jour d'après ? Nous venons de redémarrer un projet WMS Reflex IT (http://www.wms-conseil.fr), qui avait été mis en standby durant le confinement. Nous informaticiens se sont remis au travail pour configurer cette solution d’entrepôts à la fois sur le paramétrage et les développements, sous mon pilotage. Puis une partie de nos travailleurs handicapés ont fait la préparation de commandes en entrepôts pour tester la solution, ce qui mêle à la fois nos compétences IT et manuelles. Toujours la diversité en avant, pour une richesse chez nos clients. http://www.innovandco.net




Les nouveautés de Reflex WMS

Nouveaux processus de logistique e-commerce, enrichissement des fonctionnalités proposées au sein du portail collaboratif e-Reflex, gestion de l'écotaxe poids lourds, de nouvelles langues bientôt disponibles : découvrez les nouveautés de la suite Reflex pour la gestion opérationnelle des entrepôts (WMS) et du transport (TMS).

Modules destinés à améliorer le pilotage et la productivité de la Supply Chain, nouvelles fonctionnalités liées aux évolutions du marché (processus e-commerce, interfaces multilingues) ou de la législation (gestion de l'écotaxe poids lourds) : l'ensemble de ces nouveautés a été présenté au salon SITL 2013.

Reflex WMS : des évolutions corollaires à celles du marché Soucieux de répondre aux besoins spécifiques de la logistique e-commerce, Hardis complète progressivement son progiciel de gestion d'entrepôts de nouvelles fonctionnalités dédiées à ce canal de distribution :

Intégration des flux transports : Reflex WMS intègre désormais la gestion des étiquettes (édition et tracking) des plus importants transporteurs de colis du e-commerce ; Nouveaux processus de tri : la fonction de tri progressif permet le traitement de commandes importantes par lots, celle de tri en réception contribue à améliorer la productivité en mode cross-docking et à mieux gérer les marchandises en flux retour. Déjà disponible en plusieurs langues (français, anglais, allemand, néerlandais, espagnol, italien et polonais) pour accompagner le développement international de ses clients, Reflex WMS sera décliné en portugais, russe et chinois d'ici la fin de l'année 2013.

Enfin, le portail collaboratif e-Reflex se dote de deux nouveaux modules destinés à l'écosystème de l'entrepôt :

Le module e-RDV a pour objectif de fluidifier les réceptions, en permettant aux transporteurs et transitaires de réserver en ligne un créneau horaire pour la livraison ou l'enlèvement ; Le module e-Livraison accélère l'entrée en stock, en offrant aux fournisseurs et transitaires la capacité de saisir le détail de leurs livraisons en ligne, et d'éditer eux-mêmes les étiquettes colis.



Hardis Group ajoute une brique de labour management à Reflex WMS

Ce nouveau module permet d’automatiser l’ordonnancement et de réallouer dynamiquement les ressources humaines et matérielles pour mieux piloter l'activité logistique. Il a été présenté par Hardis Group sur la SITL 2019. L'éditeur Hardis Group continue d'enrichir son WMS Reflex, avec l'annonce d'un nouveau module intitulé Reflex Labour Management System (LMS). Conçu pour réduire le travail d'ordonnancement et optimiser la productivité en entrepôt logistique, il fonctionne grâce à un système algorithmique automatisé. Celui-ci calcule, en temps réel et automatiquement, les besoins en ressources humaines et matérielles pour les réaffecter selon les besoins du WMS. Pour cela, le module se base sur des contraintes temporelles (délais, priorités), matérielles (enchaînement) et capacitaires (disponibilité des ressources) et réalloue en temps réel les ressources nécessaires.

Pilotage et visibilité sur l'activité logistique Le module permet aussi aux managers de sites logistiques de piloter l'activité pour anticiper les retards et améliorer la gestion des aléas grâce à des tableaux de bord de pilotage qui intègrent l'ensemble des éléments terrains. Enfin, Reflex LMS permet également d'offrir une visibilité totale sur la productivité du site logistique avec des indicateurs de rendement, d'efficacité et le taux d'engagement des collaborateurs.

Nous contacter

2 rue du Jardin Modèle 92600 Asnières sur Seine
Pour le Service Client : 06.63.98.46.86 ou client@wms-conseil.fr

WMS, Warehouse Management System, TMS, Reflex, Hardis, JDA, Idocs, Manhattan, Redprairie, SAP, Infolog, oxygem, generix, warehouse, cylande, Bext, LM, LMxt, A-SIS, Adelia WMS, Warehouse Management System, TMS, Reflex, Hardis, JDA, Idocs, Manhattan, Redprairie, SAP, Infolog, oxygem, generix, warehouse, cylande, Bext, LM, LMxt, A-SIS, Adelia