Logiciels 2.0 : la nouvelle génération

Logiciels 2.0 : la nouvelle génération

26 avril 2021 0 Par sysdau-extranet

Les logiciels évoluent à tel point que, de plus en plus, le mot « logiciel » est en perte de vitesse. Dans un monde de plates-formes, d’écosystèmes et de solutions, nous devons comprendre la direction que prend ce qui n’est, en fin de compte, qu’un code. Quelles sont donc les tendances qui animent cette nouvelle ère du logiciel, où nous mènent-elles et qui est au volant ? Lisez la suite pour le savoir.

Conteneurisation

La plus grande tendance actuelle en matière de logiciels est la conteneurisation, une boîte magique de déploiement d’applications qui existe en dehors de tout le reste, et pourtant en son sein. Rapide, accessible de n’importe où, sur n’importe quoi, c’est la définition même de la solution miracle et elle fait passer les machines virtuelles pour des penny farthings face à une voiture de course.

Bien sûr, il est aussi fabuleusement compliqué à mettre en œuvre, nécessitant des ingénieurs spécialisés et une intégration très intelligente, mais quand il fonctionne, il rend les applications plus rapides, plus fiables et plus sûres. Et les premières pousses de conteneurisation devenant courantes – enfin, plus abordables – commencent à apparaître.

Kubernetes

Avec seulement deux acteurs sérieux sur le marché de la conteneurisation – Docker et Kubernetes – il a toujours semblé probable que l’un d’eux prendrait de l’avance. C’est le cas de Kubernetes, mais ne vous précipitez pas encore pour acheter des actions.

K8s, comme l’appellent ses amis, est une plate-forme à code source ouvert et tout le monde qui est tout le monde construit un code parallèle qu’il peut adapter à ses propres besoins. Attendez-vous à voir une forte concurrence sur le marché des produits de marque Kubernetes-core à mesure que cette tendance se développe.

Edge computing

En rapprochant les données de l’endroit où elles sont nécessaires, tout fonctionne plus rapidement. Après l’effervescence qu’a été le cloud computing, les entreprises commencent à se rendre compte que le fait de tout pousser dans un sens et dans l’autre est un processus relativement lent et pénible quand on peut le garder à proximité et avoir des vitesses de données qui s’envolent vraiment.

Avec l’avènement de la 5G, le edge computing est sur le point de devenir un élément essentiel de l’informatique d’entreprise à l’échelle, en particulier lorsqu’il est déployé dans le cadre d’un réseau IoT.

AWS IoT Greengrass

Les deux grands acteurs de l’informatique périphérique sont Microsoft (Azure) et AWS, qui, sans surprise, a de nombreux projets de données périphériques dans sa manche.

IoT Greengrass est un environnement d’exécution pour l’informatique périphérique qui peut fonctionner avec la suite de produits d’infrastructure Snow de la société pour rationaliser la mise en réseau périphérique dans un environnement localisé, sans quitter l’univers de gestion des données de Big Brother.

Plate-forme de données d’entreprise

Ce n’est peut-être pas nouveau ni sexy, mais la gestion des données d’entreprise a vu sa courbe monter en flèche, les entreprises profitant de Covid-19 pour réévaluer – et dans la plupart des cas, accélérer – leur transformation numérique.

C’est pourquoi il n’y a jamais eu de moment plus important pour être au sommet de votre jeu logiciel de données de bout en bout, de la récolte à la gestion et à la visualisation. Pour trouver le produit qui leur conviendra à moyen et long terme, les entreprises rechercheront des solutions de données unifiées et des partenariats durables.

Snowflake

Snowflake est un nouveau venu dans le monde des données mais son produit, Data Cloud, est en train de prendre d’assaut le monde des affaires, permettant un accès rapide et sécurisé aux données partageables et promettant la fin des silos de données et des vulnérabilités.

Créée par d’anciens employés d’Oracle en 2012, elle s’est imposée dans les rangs de la gestion des données d’entreprise, ce qui n’est pas une mince affaire lorsque les entreprises en place sont des piliers aux poches profondes et aux relations de longue date. Attendez-vous à voir d’autres grandes choses de Snowflake au fil du temps.

No Code / Low Code

C’est une perspective séduisante, mais le No Code / Low Code (NCLC) est un marché important, en particulier pour les entreprises de taille moyenne qui ne peuvent pas investir dans des intégrations coûteuses nécessitant des équipes d’ingénieurs pour écrire du code sur mesure.

La théorie est simple : Le NCLC est moins personnalisable que le développement sur mesure, mais il peut être réglé par le profane relatif pour produire des résultats comparables aux solutions plus coûteuses disponibles pour ceux qui ont des poches plus profondes et des besoins plus compliqués.

Paradoxalement, pour un produit qui fonctionne presque comme par magie, il est également apprécié pour son absence de codage en trompe-l’œil, qui séduit les managers naïfs sur le plan technologique.

Bulle

Lorsqu’il s’agit de NCLC, Bubble a tout compris. Une interface intuitive de type glisser-déposer, associée à des modèles logiques de base, fait de la production de HTML un jeu d’ordinateur plutôt qu’une tâche de développement.

Pour les sceptiques, Bubble propose sur son site Web un outil permettant au navigateur occasionnel de modifier la page d’accueil de l’entreprise. Les possibilités de personnalisation sont nombreuses et Bubble se charge également de l’hébergement et du déploiement, éliminant ainsi le besoin d’autres partenaires.

Streaming de données

Arrêtez de penser à Netflix. Nous parlons du streaming de données qui… d’accord, Netflix l’est, mais de manière limitée. Le streaming de données devient – et va devenir encore plus – important, la collecte de données dans les entreprises étant un élément central de la stratégie DX.

Mais le flux de données n’est pas facile. Il y a les données limitées, qui existent dans leur totalité et ne doivent être calculées qu’une fois qu’elles ont toutes été collectées, et les données non limitées, qui continuent à être collectées dans un flux théoriquement sans fin. Ces deux entités doivent être gérées en parallèle et la capacité de calcul doit être équilibrée de manière raisonnable.

Apache Flink

Flink est difficile à décrire, que ce soit en tant qu’application, en tant que runtime ou en tant qu’architecture. Mais son cerveau informatique massif prendra de multiples flux de données et les organisera en instantanés de données exploitables – plus facile à dire qu’à faire, d’où sa complexité.

Sa fonctionnalité est également essentielle pour l’automatisation des applications événementielles, où l’activité est déclenchée par un certain état des données. Spark, de la Fondation Apache, devrait également recevoir une mention honorable pour le traitement des données à grande échelle.