thaink² platform documentation

Auteur·rice

thaink² team

Date de publication

1 janvier 2025

La plateforme

La plateforme thaink² analytics de La plateforme Dive2Analytics de thaink² vous propose une interface no-code, intuitive et des accès sécurisés, prête à prendre en charge une multitude de types de données grâce à un connecteur de données ultra-performantes.

Pas besoin de coder : notre solution, tout-en-un et simple d’utilisation, vous offre un ensemble complet de briques et fonctionnalités pour gérer les projets data de bout-en-bout.

Ses fonctionnalités incluent :

Prise en main et aperçu des datasets. Pré-traitement des données, en détectant et en comblant les valeurs manquantes. Génération de données artificielles avec “Features engineering” (Ingénierie des caractéristiques). Exploration des data, création de visualisations dans le but de concevoir des reportings automatisables et des dashboards. Entraînement, test et validation de modèles de machine learning en mode drag-and-drop, en utilisant les meilleures métriques disponibles. Rapport sur les modèles de machine learning. Sauvegarde des modèles entraînés. Déploiement des modèles sous forme d’application via la plateforme et sous forme d’API (sécurisé avec Token) directement intégrables à vos solutions. Création et orchestration des pipelines Data et ML (machine learning). Développement et déploiement de WebApp.

Dans ce manuel, nous vous guiderons à travers chaque étape pour utiliser efficacement la plateforme Dive2Analytics. Vous trouverez des instructions détaillées, des astuces et les meilleures pratiques pour une bonne prise en main de notre solution.

Data Blender

Data Connectors

Data Pool

Un espace de stockage partagé entre les collaborateurs affiliés au projet, contenant l’ensemble des datasets chargés et sauvegardés par ces derniers.

  • Explore : Affichage sous forme de table. Modification des features (Nom, Type de variable, Nombre de features…). Filtrage des features en Drag & drop. Création de nouvelles features (jour/semaine, semaine, mois, conversion des dates, formules mathématiques etc…).

  • Join : Appliquer des jointures de données (Right, Left,Full, Anti, Inner) sur deux sources différentes.

  • Export : Exportation du dataset sous format fichier (.csv, .txt, .html).

  • Permissions : Partager le fichier avec d’autres collaborateurs. Choisir le niveau d’accréditation : View, Edit, Manage, None (Retirer les permissions).

  • Delete : Supprimer le dataset.

  • Reload : Recharger les sources de données (base de données ou outils métiers).

  • History : (In progress ).

Note

La gouvernance est integrée avec une gestion des accés et des permission simplifiées, favorisant une collaboration fluid tout en garantissant une price en main rapide et intuitive

Special connectors: Google (Drive, BigQuery, Sheets, Gmail, GCP)

OAuth2 (Open Authorization 2.0) est un protocole d’autorisation standard qui permet à une application d’accéder à des ressources au nom d’un utilisateur, sans avoir à connaître son mot de passe.

🔐 Fonctionnement de base :
  • L’utilisateur tente de se connecter via un fournisseur (Google, Microsoft, etc.).

  • L’application redirige l’utilisateur vers le fournisseur OAuth2 avec une requête d’autorisation.

  • Le fournisseur authentifie l’utilisateur, puis redirige vers l’application avec un code d’autorisation.

  • L’application échange ce code contre un jeton d’accès (access token) auprès du fournisseur.

  • Ce jeton permet à l’application d’appeler des API protégées au nom de l’utilisateur.

BI & Insights

Insights & BI

Insights

Import & View

Une brique d’exploration intuitive des data, boostée par des algorithmes intelligents pour la partie prétraitement automatisé des datas. Elle permet d’explorer visuellement les données afin de créer des graphiques et visuels, qui offriront à l’utilisateur la possibilité de créer des dashboards et des rapports automatisables.

La plateforme détecte automatiquement le contenu du dataset sélectionné afin de faciliter l’exploration :

  • Time Variable : Détection des variables temporelles.
  • Target Variable : Détection des variables numériques qui serviront à être visualisées.
  • Categorical Variable : Détection des variables numériques qui serviront à créer les granularités et des filtres.
Note

La plateforme procède à une analyse totale du dataset:

  • Détection automatique de l’échelle de temps.
  • Affichage d’un aperçu sur la taille du dataset.
  • Scoring de qualité en analysant la qualité des données (anomalies, valeurs obsolètes et valeurs manquantes).

Explore

La brique propose automatiquement les variables numériques à visualiser, tandis que les variables catégoriques sont proposées pour le choix de l’axe des X, et les autres pour définir la granularité. L’utilisateur peut modifier les agrégations mathématiques (somme, moyenne, valeur maximale ou minimale, etc…), et choisir le type de graphique (ligne, nuage de points, barres, distribution, etc…), puis cliquer sur “Start” pour afficher le résultat.

  • Une fois les graphiques affichés, sur l’onglet , l’utilisateur a la possibilité de visualiser et d’exporter les données.

  • Grace au bouton , l’utilisateur va avoir la possibilité d’utilisateur le graphique et/ou la donnée filtré comme un contenu qui lui servira à créer des rapports et des dashboards dans la section BI & Reportings.

Note

La section “Aggregate” permet à l’utilisateur d’effectuer les mêmes manipulations sur la data que la section “Explore”, tout en ayant la possibilité d’agréger la fréquence de temps (semaine,mois, trimestre, etc…).

Data Explorer

La brique propose automatiquement les variables numériques à visualiser, tandis que les variables catégoriques sont proposées pour le choix de l’axe des X, et les autres pour définir la granularité. L’utilisateur peut modifier les agrégations mathématiques (somme, moyenne, valeur maximale ou minimale, etc…), et choisir le type de graphique (ligne, nuage de points, barres, distribution, etc…), puis cliquer sur “Start” pour afficher le résultat.

Une fois les graphiques affichés, sur l’onglet, l’utilisateur a la possibilité de visualiser et d’exporter les données.

Grâce au bouton , l’utilisateur va avoir la possibilité d’utilisateur le graphique et/ou la donnée filtré comme un contenu qui lui servira à créer des rapports et des dashboards dans la section BI & Reportings.

My Reports

Un espace de travail qui contient tous les rapports/dashboards crées par l’utilisateur accéssible aux collaborateurs sur l’espace de travail.

L’utilisateur a la possibilité à tout moment, d’ouvrir le fichier et de le consulter en cliquant sur le lien “Run”. Une liste de fonctionnalités supplémentaires est à disposition :

  • Share : partager le rapport ou le dashboard en format ( .html ou .pdf )

  • Download : exporter le rapport ou le dashboard en format ( .html ou .pdf )

  • Delete : supprimer le rapport ou dashboard.

  • Transfer : partager le rapport ou dashboard en format .html modifiable et l’utilisateur perds les permissions dessus.

  • Permissions :

Partager le fichier avec d’autres collaborateurs Choisir le niveau d’accréditation : View, Edit, Manage, None (Retirer les permissions)

Create a report

En mode Drag-and-Drop, l’utilisateur aura la possibilité de créer des rapports et des dashboards. le bouton
permet de créer des sections.

L’utilisateur a le contrôle sur :

Donner un nom au rapport et choisir le type (rapport ou dashboard) parmi une liste de templates proposés par la plateforme.

À l’aide de la souris et en mode “Glisser-Déplacer”, il pourra déplacer les contenus depuis “Contents” vers les sections créées.

Attribuer des noms aux différentes sections/contenus.

Rajouter des commentaires supplémentaires.

  • Download : permet d’exporter le rapport en mode interactif sous format .html.

  • Publish : permet de sauvegarder le rapport dans l’espace de travail “MyReports”.

Note

Une section peut contenir une ou plusieurs illustrations/contenus.

AI & Machine Learning

ML Engine (AutoML)

Le ML Engine de thaink² est le moteur d’IA permettant de créer, déployer et exploiter des modèles de machine learning pour des cas d’usage tels que les prévisions ou l’optimisation, tout en simplifiant leur intégration aux processus métiers.

Feature Engineering

En mode Drag-and-Drop, l’utilisateur pourra choisir un dataset à partir du Data Pool et sélectionner le type d’apprentissage (supervisé ou non-supervisé).

L’utilisateur a le contrôle sur :

  • Choisir la variable d’intérêt à prédire (Target variable).

Sélectionner les variables d’entrées des modèles (Explainable variables).

Cliquer sur

Choisir les nouveaux features dans la liste déroulante.

Note

Enrichir le dataset comme suit: * Variable numérique : Création de features en appliquant des transformations mathématique ( Abs, Sqrt, ^2, log… * Variable temporelle : Jour,semaine, Jour/Semaine, Semaine/année, mois…

Algorithmes ML à disposition

La fonctionnnalité “Processing” de thaink², permet un prototypage des modèles afin de tester et de comparer différents modèles de machine learning grâce à une interface intuitive.

L’utilisateur a le contrôle pour :

  • Choisir le d’algorithme ML.

  • Définir un training split ( 40-80%).

  • Choisir un random sampling et/ou une fine-tuning.

  • Entrainer et Sauvegarder le modèle .

  • Cocher “create App”, pour créer automatiquement une App sur la plateforme.

Note

La plateforme détecte automatiquement le type de la variable d’entrée (si la variable est numérique (resp. catégorique) et propose une régression (resp. une classification) les métriques adéquates sont automatiquement définies par la plateforme selon le type d’apprentissage.

Model Pool (ML Models)

Le Machine Learning Pool de thaink² centralise une collection de modèles prêts à l’emploi, sauvegardés pour différents cas d’usage, afin d’accélérer le déploiement MLOps.

L’utilisateur a la main pour :

  • Déployer les modèles directement sous forme d’API avec le bouton .

  • Ouvrir le Swagger de l’API déployée ( Bouton ) et avoir la documentation.

  • Tester l’API avec un editeur de code R ou Python à l’aide du bouton .

  • Supprimer et archiver les modeles MLs.

Note
  • La gouvernance est entièrement intégrée avec une gestion des accès et des permissions simplifiée, favorisant une collaboration fluide tout en garantissant une prise en main intuitive et rapide.
  • Les status :
    • Saved : signifie que le modele est sauvegardé mais pas déployé
    • In production : Signifie que le modele est deployé sous forme d’une API.
Avertissement

Pour supprimer les modèles ML, il faut s’assurer que les APIs sont désactivés.

MLOps

La brique MLOps de thaink² automatise le déploiement, la supervision et la maintenance des modèles de machine learning en production, garantissant performance, fiabilité et scalabilité.

Applications

L’utilisateur a le contrôle pour choisir l’App sauvegardée de son choix :

  • Cliquer sur pour utiliser les modèles entraînés et faire des prédiction.

  • Cliquer sur “Delete” pour supprimer les Apps.

  • Obtenir un aperçu statistique sur le modèle grâce à la fonctionnalité “Analytics”.

La gouvernance est entièrement intégrée avec une gestion des accès et des permissions simplifiée, favorisant une collaboration fluide tout en garantissant une prise en main intuitive et rapide.

Note

Les APPs peuvent être créées et/ou supprimées indépendamment des APIs.

ML APIs

L’utilisateur a le contrôle :

  • Déployer une API à l’aide du bouton .

  • Ouvrir le Swagger de l’API déployée, qui contient la documentation avec le bouton .

  • Démarrer (Resume), mettre en pause (Pause) ou stopper (Unstage) une API.

  • Générer un token JWT sécurisé grâce au bouton .

  • Tester l’API avec un script (R ou Python) directement depuis la plateforme via le bouton .

Note
  • La gouvernance est entièrement intégrée, avec une gestion des accès et des permissions simplifiée, favorisant une collaboration fluide tout en garantissant une prise en main intuitive et rapide.
  • Les statuts :
    • Ready : Le modèle est sauvegardé mais pas encore déployé.
    • Active : Le modèle est déployé sous forme d’API.
Avertissement

Les APIs doivent être archivées avant de pouvoir supprimer le model correspondant.

Use case portfolio

Forecasting (prévisions)

Le forecasting est l’art, à partir de données du passé et de facteurs externes (météo, business, marché…), de prédire les résultats futurs grâce à des modèles analytiques avancés. Ainsi, en anticipant les tendances futures, il contribue directement à prévoir la demande, ajuster les ventes et orienter les stratégies commerciales.

Grâce au module de prévisions, vous pouvez générer vos projections de la manière suivante : Charger les données. * Sélectionner la variable de temps. * Sélectionner les KPIs pour lesquels vous souhaitez générer les prévisions (plusieurs KPIs peuvent être sélectionnés à la fois). * Définir le niveau de granularité (par défaut, au niveau global). * Définir la fréquence temps d’entrée : - Si la fréquence choisie est celle de la variable temps, aucune agrégation est effectuée. - Si une autre fréquence est choisie les données sont agrégées avant d’être transmises à l’algorithme. * Cliquer sur le bouton .

Note

L’algorithme se basera sur cette variable temps pour détecter/corriger les données manquantes, anomalies ainsi que les saisonnalités des KPIs. Le nombre de prévision générées va être égal au nombre de KPIs sélectionnés multiplié par le nombre de sous-groupe contenu dans les variables granulaires Dans le cas de KPI qui n’a pas de saisonnalité stable il est recommandé de passer à une fréquence supérieur afin de capturer son comportement et avoir des prévisions plus fiables.

Avertissement

Le dataset doit contenir absolument une variable temporelle.

RAG & LLM

📚 RAG (Retrieval-Augmented Generation) avec PDF

RAG est une technique qui combine recherche d’information (retrieval) et génération de texte via un LLM (Large Language Model), pour répondre à des questions de manière plus fiable et précise.

🔍 Fonctionnement avec un PDF :

  • Indexation :

  • Le contenu du PDF est extrait (texte).

  • Ce texte est découpé en blocs (paragraphes, sections…).

  • Chaque bloc est transformé en vecteur via un embedding (représentation numérique).

Stockage :

Les vecteurs sont stockés dans une base vectorielle (LanceDB).

Question de l’utilisateur :

La question est également transformée en vecteur.

On cherche les blocs les plus proches sémantiquement dans la base vectorielle.

Génération de la réponse :

  • Le LLM (comme GPT) reçoit la question et les extraits pertinents.

Il génère une réponse contextualisée, basée sur le contenu du PDF.

✅ Avantages : Donne des réponses précises sans halluciner.

Utilise vos documents internes comme source fiable.

Facile à adapter à d’autres formats que PDF (Word, HTML…).

Pipelines & ETL

Pipelines

L’ETL de thaink² centralise vos données en intégrant de multiples sources d’entrée, en appliquant des blocs de transformation configurables (de manière séquentielle ou parallèle), et en générant des sorties dans divers formats adaptés à vos besoins métier.

L’utilisateur a le contrôle :

  • Créer un pipeline de données à l’aide du bouton .

  • Ajouter un bloc (Extract, Transform ou Load) et le connecter librement aux briques souhaitées (Extract, Transform ou Load) en input et/ou output, grâce au bouton .

  • Supprimer le pipeline en question avec le bouton .

Note

Le chart flow offre une visualisation en temps réel des blocs sélectionnées (Extract, Transform et Load), des connexions entre ces blocs, ainsi qu’un aperçu global de l’architecture Data mise en place. L’utilisateur a la possibilité de modifier à tout moment un bloc en double-cliquant dessus.

Orchestrateur

L’orchestrateur de thaink² permet de planifier et d’automatiser les workflows avec une grande flexibilité. Il prend en charge différentes fréquences temporelles (horaire, quotidienne, hebdomadaire, etc.), des déclenchements basés sur des événements ou des conditions spécifiques, et offre la possibilité de définir des délais de lancement pour une exécution optimisée et maîtrisée.

Pour chaque Pipeline créé; l’utilisateur dispose des fonctionnalités suivantes :

  • À l’aide du bouton , créer un orchestrateur pouvant être déclenché selon une échelle de temps (horaire, journalière, etc…) ou par un déclenchement extérieur ( évènement ou API ).

  • Lancer l’orchestrateur grâce au bouton .

  • Supprimer l’orchestrateur à l’aide du bouton .

Note

Les orchestrateurs doivent être supprimés avant de supprimer les pipelines.

ML Factor(Pipeline)

La ML Factory de thaink² automatise les prédictions à grande échelle en intégrant tout le cycle de vie des modèles. Elle gère une source d’entrée unique pour les données, déploie une API dédiée pour des prédictions en temps réel ou en batch, et assure la sauvegarde des résultats dans une source configurable (base de données, data lake, etc.), garantissant ainsi performance et traçabilité.

Pour chaque Pipeline créé; l’utilisateur a le contrôle :

  • Choisir une source de donnée input dans le Data Loader

  • Choisir une API déployée dans le bloc transformer.

  • Renseigner une source de données Output.

  • Créer le Pipeline à l’aide du bouton.

Note

L’utilisateur doit suivre les mêmes étapes que pour le pipeline data pour créer et lancer des orchestrateurs.

Note

Les orchestrateurs doivent être supprimés avant de supprimer les pipelines.

Forecasting (Pipeline)

Le pipeline de forecasting de thaink² automatise les prévisions et inclut un tableau de bord interactif pour visualiser les performances, explorer les résultats et ajuster les paramètres en temps réel, offrant une expérience utilisateur intuitive et efficace.

En suivant les mêmes instructions que pour le ML Pipeline, l’utilisateur peut créer un pipeline de forecasting en suivant ces étapes:

  • Choisir une source de donnée input dans le Data Loader

  • Configurer le transformer :

En suivant les mêmes instructions que pour le ML Pipeline, l’utilisateur peut créer un pipeline de forecasting en suivant ces étapes:

Choisir une source de donnée input dans le Data Loader

  • Configurer le transformer :

    • Choisir les targets variables.
    • Choisir la variable temporelle (Date Variable).
    • Configurer la durée des forecastings (forecast Horizon).
    • Activer ou non les Business-Holidays.
    • Choisi les modèles (Voir Annexe).
    • Définir un train Split.
    • Activer une exécution Spark.
  • Renseigner une source de données Output.

  • Créer le Pipeline à l’aide du bouton .

Note
  • L’utilisateur doit suivre les mêmes étapes que pour le pipeline data pour créer et lancer des orchestrateurs.
  • L’exécution Spark peut garantir des traitements jusqu’à +10k KPIs.
Note

Les orchestrateurs doivent être supprimés avant de supprimer les pipelines.

Analytics APIs

les services de thaink² sont aussi disponibles via API, pour pouvoir utiliser utiliser ces service, un bearer token est recquis pour pouvoir s’authentifier.

Vous pouvez utiliser ce lien pour pouvoir générer un token : thaink² token generator

Diagnostic des Données Tabulaires

Déscription

Cet endpoint permet d’analyser un jeu de données tabulaires afin d’en extraire des informations diagnostiques. Il retourne des statistiques descriptives sur les variables ainsi que des filtres suggérés pour une analyse plus approfondie.

Méthode HTTP

  • POST /thaink2/data/diagnostic

Format des Données Entrantes

L’API attend une requête JSON contenant :

  • input_data : un tableau d’objets représentant les données tabulaires à analyser.

    {
        "input_data": [
            {"id": 1, "name": "Alice", "age": 25, "score": 90.5, "country": "FR"},
            {"id": 2, "name": "Bob", "age": 30, "score": 85.0, "country": "UK"},
            {"id": 3, "name": "Charlie", "age": 22, "score": 78.0, "country": "FR"},
            {"id": 4, "name": "David", "age": 27, "score": 88.0, "country": "ESP"},
            {"id": 5, "name": "Emma", "age": null, "score": 95.0, "country": "US"},
            {"id": 6, "name": "Frank", "age": 26, "score": 70.0, "country": "GER"},
            {"id": 7, "name": "Grace", "age": 29, "score": 92.0, "country": "FR"},
            {"id": 8, "name": "Henry", "age": 31, "score": 89.0, "country": "UK"},
            {"id": 9, "name": "Isabel", "age": 28, "score": 88.5, "country": "ESP"},
            {"id": 10, "name": "John", "age": 24, "score": null, "country": "IT"}
        ]
    }

Format des Données Sortantes

L’API renvoie un objet JSON contenant :

{
  "diagnosis": [
    {
      "variables": "id",
      "types": "integer",
      "missing_count": 0,
      "missing_percent": 0,
      "unique_count": 10,
      "unique_rate": 1
    },
    {
      "variables": "name",
      "types": "character",
      "missing_count": 0,
      "missing_percent": 0,
      "unique_count": 10,
      "unique_rate": 1
    },
    {
      "variables": "age",
      "types": "integer",
      "missing_count": 1,
      "missing_percent": 10,
      "unique_count": 10,
      "unique_rate": 1
    },
    {
      "variables": "score",
      "types": "numeric",
      "missing_count": 1,
      "missing_percent": 10,
      "unique_count": 10,
      "unique_rate": 1
    },
    {
      "variables": "country",
      "types": "character",
      "missing_count": 0,
      "missing_percent": 0,
      "unique_count": 6,
      "unique_rate": 0.6
    }
  ],
  "categoricals": ["id", "name", "age", "score", "country"],
  "categoricals_unique_values": {
    "id": [1, 2, 3, 4, 5, 6, 7, 8, 9, 10],
    "name": ["Alice", "Bob", "Charlie", "David", "Emma", "Frank", "Grace", "Henry", "Isabel", "John"],
    "age": [25, 30, 22, 27, "NA", 26, 29, 31, 28, 24],
    "score": [90.5, 85, 78, 88, 95, 70, 92, 89, 88.5, "NA"],
    "country": ["FR", "UK", "ESP", "US", "GER", "IT"]
  },
  "filters": {
    "id": [1, 10],
    "age": [22, 31],
    "score": [70, 95],
    "name": ["Alice", "Bob", "Charlie", "David", "Emma", "Frank", "Grace", "Henry", "Isabel", "John"],
    "country": ["FR", "UK", "ESP", "US", "GER", "IT"]
  }
}

Filtrage des Données Tabulaires

Description

Cet endpoint applique des filtres dynamiques à un jeu de données tabulaires et retourne les données filtrées.

Méthode HTTP

  • POST /thaink2/data/filter

Format de données entrantes

L’API attend une requête JSON contenant :

  • input_data : un tableau d’objets représentant les données tabulaires.

  • filters : un objet contenant les critères de filtrage pour chaque variable.

  • filters_na : un objet indiquant si les valeurs manquantes doivent être incluses dans le filtrage.

    {
        "input_data": [
            {"id": 1, "name": "Alice", "age": 25, "score": 90.5, "country": "FR"},
            {"id": 2, "name": "Bob", "age": 30, "score": 85.0, "country": "UK"},
            {"id": 3, "name": "Charlie", "age": 22, "score": 78.0, "country": "FR"},
            {"id": 4, "name": "David", "age": 27, "score": 88.0, "country": "ESP"},
            {"id": 5, "name": "Emma", "age": null, "score": 95.0, "country": "US"},
            {"id": 6, "name": "Frank", "age": 26, "score": 70.0, "country": "GER"},
            {"id": 7, "name": "Grace", "age": 29, "score": 92.0, "country": "FR"},
            {"id": 8, "name": "Henry", "age": 31, "score": 89.0, "country": "UK"},
            {"id": 9, "name": "Isabel", "age": 28, "score": 88.5, "country": "ESP"},
            {"id": 10, "name": "John", "age": 24, "score": null, "country": "IT"}
        ],
        "filters": {
            "age": [25, 30],  
            "score": [80, 95],  
            "country": ["FR", "UK", "ESP"]  
        },
        "filters_na": {
            "age": true,  
            "score": false  
        }
    }

    Cet exemple JSON illustre une requête envoyée à l’API.

    input_data contient une liste d’enregistrements avec des informations telles que l’âge, le score et le pays.

    filters définit les critères de filtrage : ici, seules les personnes remplissant les conditions suivantes sont sélectionnées :

    - un age compris entre 25 et 30 ans .

    - un score compris entre 80 et 95 .

    - un pays parmi “FR”, “UK” ou “ESP”.

    filters_na précise si les valeurs manquantes doivent être prises en compte dans le filtrage :

    - les âges null sont conservés (true),

    - les scores null sont exclus (false).

Format des Données Sortantes

L’API retourne un tableau JSON contenant les données filtrées selon les critères définis :

[
  {
    "id": 1,
    "name": "Alice",
    "age": 25,
    "score": 90.5,
    "country": "FR"
  },
  {
    "id": 2,
    "name": "Bob",
    "age": 30,
    "score": 85,
    "country": "UK"
  },
  {
    "id": 4,
    "name": "David",
    "age": 27,
    "score": 88,
    "country": "ESP"
  },
  {
    "id": 7,
    "name": "Grace",
    "age": 29,
    "score": 92,
    "country": "FR"
  },
  {
    "id": 9,
    "name": "Isabel",
    "age": 28,
    "score": 88.5,
    "country": "ESP"
  }
]
Note

Le nombre de requetes par token/utilisateur est limité par défaut à 50, si l’API vous retourne un code 429, veuillez nous contacter pour vous donner plus de ressources.

Avertissement

Les requêtes doivent inclure un en-tête Authorization avec la valeur Bearer {votre_token} pour pouvoir accéder à l’API.

Annexe

Média

A full playlist of vidéos is available under the following link :

Demos