Centre de Recherche de l’ EHEIO

Centre de recherches Oujda Maroc

Le Centre de Recherche de l’Ecole des Hautes Etudes d’Ingénierie d’Oujda (CREHEIO) est un laboratoire scientifique que nous avons créé en juin 2014 avec des enseignants chercheurs spécialistes dans les divers domaines de l’ingénierie liée à l’électronique, l’électrotechnique et l’électronique de puissance, l’automatique, l’informatique industrielle, les sciences des matériaux, la gestion de la production et de la maintenance et les systèmes d’information.
Après avoir mis en place le dernier maillon de la chaine pédagogique à l’EHEIO l’attention de la direction s’est mobilisée pour la création de ce centre pour répondre à un double objectif :

  • - La formation des enseignants chercheurs de l’EHEIO pour disposer d’une équipe pédagogique de haut niveau
  • - Favoriser l’ouverture de l’EHEIO sur son environnement socio-économique régional et/ou national par le biais la recherche développement pour promouvoir le transfert de technologie.
Ce centre est le fruit d’un travail collectif de fond visant la création d’une synergie entre plusieurs acteurs académiques, sociaux économiques et institutionnels pour faciliter :
  • - Le développement de la recherche dans les divers domaines des sciences de l’ingénierie, en privilégiant toutes sortes de collaboration avec des entités scientifiques et professionnelles, nationales et internationales.
  • - Le renforcement des différentes formes de partenariat avec les professionnels de l’entreprise ; notamment à travers des contrats d’assistance, de conseil et de formation continue en vue de maîtriser les problèmes technologiques liés à la maitrise de la production dans les entreprises.
  • - L’amélioration permanente des méthodes pédagogiques ainsi que le montage de filières d’ingénierie à forte valeur ajoutée et adaptées au marché de l’emploi.

Le domaine et axes de recherche :

La recherche est une préoccupation centrale dans les activités du CREHEIO, les membres et partenaires de ses unités ; résolument tournés vers les centres d’intérêt des entreprises et le monde socio-économique, se fixent comme objectif fondamental l’enrichissement de la recherche développement par des programmes précis qui débouchent sur des publications scientifiques, des conférences, des séminaires, des colloques, des congrès ou des brevets.

La recherche réalisée à l’école doit être une source d’innovation pour les entreprises régionales et ou nationales. Faire progresser les connaissances, produire de l’innovation, telles sont les missions des équipes de recherche de l’école.

Car l’école est un partenaire naturel de toute entreprise qui souhaite créer de la valeur et de l’innovation. Les entreprises se tournent sciemment vers les laboratoires de recherche pour la croissance de leur entreprise.

La recherche est une des clés de reconnaissance de l’établissement, en plus de la formation.

La qualité de la recherche de l’école passe par la notoriété des laboratoires, leur dynamisme, le travail fourni par les équipes de recherche (montant des contrats avec les entreprises, publications, brevets...), ce qui permet que l’école soit reconnue nationalement et internationalement.

Le centre comporte plusieurs groupes de recherches qui ont été formés selon le centre d’intérêt des enseignants et de certains besoins des entreprises de l’oriental.

A la suite d’une réunion entre tous les groupes de recherche, il a été décidé que l’activité de recherche du centre soit structurée comme suit : Un seul domaine de recherche comportant deux axes répartis en cinq thèmes. Le Domaine de recherche retenu est :

Optimisation des systèmes de production et Théorie de l’information appliquée à la modélisation des systèmes de grande dimension.

Avec deux axes de recherche qui sont :

- Axe 1 : Optimisation des systèmes de production
- Axe 2 : Théorie de l’information et modélisation des systèmes de grande dimension

Axe 1 : Optimisation des systèmes de production

Dirigé et mis en place par le Professeur El Miloud AMAMOU (Docteur d’état en gestion de production, Enseignant EHEIO)

Toute entreprise de production de biens et services cherche à répondre à plusieurs exigences souvent antagonistes. En particulier elle doit :

- Satisfaire les besoins et attentes des clients
- Produire au moindre coût
- Respecter l’environnement
- Assurer sa pérennité.

Dans son activité de production, l’entreprise utilise des ressources, telles que la matière première, la main d’œuvre et les machines pour transformer la matière première en produits finis afin de satisfaire ses clients en leur apportant de la valeur ajoutée. Pour ce faire l’entreprise doit se doter d’un système de production performant qui peut être défini comme étant l’ensemble des pratiques, des règles, des outils et méthodes qui forment sa culture industrielle. C’est dans le but d’aider les entreprises à mettre en place et améliorer leur système de production que le Centre de Recherche de l’Ecole des Hautes Etudes d’Ingénierie d’Oujda a choisi comme un de ses axes de recherche :

L’Optimisation des systèmes de production.

Dans un premier temps on s’intéresse aux approches qui visent l’amélioration et la qualité de la production. Dans ce sens trois thèmes de recherche ont été retenus :

Thème 1 : Optimisation et supervision de la presse polyvalente d’emboutissage

Equipe 1 :

- Abdelkader BENBOUAZZA (Ingénieur en génie industriel, Enseignant EHEIO)
- Mouhi Eddine MIRALI (Ingénieur en génie électrique, Enseignant EHEIO)
- Ahmed ILOUAFI (Ingénieur à la société SOFRENOR -NADOR)

Les presses à emboutir à entraînement hydraulique ont pris une place prépondérante en raison de leurs polyvalences. Forces de pression, course du coulisseau et vitesses de formage sont variables et commandées avec précision. C’est pourquoi l’entraînement hydraulique est particulièrement recommandé pour les pièces embouties en matériaux à emboutissabilité difficile. Des avantages économiques supplémentaires sont obtenus par la conception de l’entraînement et l’utilisation des technologies modernes de commande et de régulation.

Le spectre des pièces à fabriquer est issu des branches telles que l’industrie des sous-traitants de l’automobile, l’industrie électrique, l’industrie des appareils ménagers ou la technique médicale. Suivant les tâches à accomplir, on met en œuvre des presses à simple effet, doubles effets ou plus, qui sont équipées des technologies les plus modernes en matière de coulisseau et de coussins. C’est ainsi que l’on peut également emboutir des pièces compliquées en matériaux à haute rigidité, de façon rentable et avec une qualité constante.

Dans ce sens, SOFRENOR possède une presse LASCO qui pose des problèmes de précision, de consommation énergétique et de commande. Notre travail consiste à mettre en place un réseau de capteurs (cameras, détecteurs de proximité,…) et concevoir un système d’optimisation et de supervision de cette machine dans le but d’augmenter son rendement.

Thème 2 : Diagnostic des systèmes complexes

Equipe2 :

- Issam AL KORACHI (Docteur en mécanique, Enseignant EHEIO)
- Faouaz JEFFALI (Docteur en Génie Industriel, Enseignant EHEIO)

Les machines asynchrones occupent une place importante dans tous les secteurs industriels. Le recours à ces machines est surtout lié à leur robustesse, leur puissance massique et à leur coût de fabrication. Néanmoins, des défaillances peuvent apparaitre au cours du temps. D’où la nécessité de développer des outils de diagnostics pour détecter de manière précoce les défauts pouvant apparaitre dans ces machines. Il s’agit dans un 1er temps d’estimer les paramètres sensibles aux défauts (courants rotoriques, résistances des barres du rotor, température des enroulements, vibrations, balourds, etc. …).

Pour ce faire on a mis en place un système expérimental composé d’un moteur asynchrone entrainant successivement une charge mécanique et une charge électrique. L’emplacement de différents capteurs et appareils de mesures permettra d’aborder ensuite une stratégie de diagnostic à base de modèle de la machine. L’objectif à court et à moyen terme est la conception d’un appareil simple et non couteux permettant la détection des défauts d’un moteur asynchrone.

Thème 3 : Traitement d’images et systèmes de vision artificielle

Equipe3 :

- Ouafae ELMELHAOUI (Docteur en électronique, Enseignante EHEIO)
- Mohammed MOUMENI (Ingénieur en génie industriel, Enseignant EHEIO)

La vision artificielle connait une demande croissante de la part d’entreprises de diverses industries : automobile, aéronautique, biopharmaceutique, manufacturier, agroalimentaire,…

Elle est utilisée dans une panoplie d’applications : contrôle de qualité des produits, automatisation, traçabilité, vidéosurveillance, asservissement, aide au diagnostic, supervision…

Vue la ''démocratisation'' de la vision artificielle, le CREHEIO s’est doté d’une chaine de traitement d’image pour aborder dans de bonnes conditions le thème3 avec deux objectifs :

- Développement des méthodes et outils d’aide au traitement d’image
- Introduction de la culture ‘’vision industrielle’’ au sein de l’école et son transfert aux entreprises industrielles régionales et nationales.

Axe 2 : Théorie de l’information et modélisation des systèmes de grande dimension

Dirigé et mis en place par le Professeur Mouloud SBAI (Docteur d’état en automatique et informatique industrielle, Enseignant EHEIO)

L’étude des systèmes complexes pose d’importants problèmes de modélisation et de commande, qui sont de deux ordres :

En premier lieu, le grand nombre de variables nécessaires à la description du système conduit à des modèles de dimensions importantes. De plus ces variables peuvent être de nature différente (quantitatives, qualitatives, …).

En second lieu, la dimension importante de ces modèles s’accompagne dans la plupart des cas, d’une pluralité des objectifs de commande, quelquefois antagonistes.

Parmi ces méthodes, nous nous intéressons aux techniques de l’analyse structurale qui ont une portée plus étendue que d’autres plus « classiques ». Ainsi au lieu des méthodes d’identification, d’analyse numérique, …, on fait appel à l’analyse des données, la théorie de l’information, la théorie des graphes, … De telles approches apportent une contribution intéressante pour l’appréhension des systèmes complexes.

Outre la nécessité de l’expérimentation de ces méthodes dans d’autres domaines que le traitement du signal, (systèmes de commande…), on peut discerner dès à présent quelques directions de recherches intéressantes :

- Développer des méthodes de décomposition non supervisées, et multicritères.
- Développer une approche d’extraction de connaissance, basée sur des modèles « trichotomiques » valués en utilisant la notion de liaison positive, négative et nulle.
- Développer des méthodes d’apprentissage basées sur des réseaux de neurones, en utilisant la théorie de l’information.

Par ailleurs, l'ère des Big Data qui sont des ensembles de données tellement gigantesques qu'ils nécessitent de nouveaux outils techniques et scientifiques pour les comprendre et en tirer du sens. Un déluge de données qui pose des questions profondes sur leur collecte, leur interprétation, leur analyse... Dans ce siècle des réseaux, la science des algorithmes, censée extraire le sens de ces amas d'information doit apprendre à comprendre ce qu'elle analyse.

L'enjeu des Big Data nous adresse des questions scientifiques, mais aussi des problèmes d’utilité et d’efficacité de cet ensemble important de données.

Dans ce sens deux thèmes sont proposés :

Thème 4 : Analyse et décomposition des systèmes complexes par le biais de la théorie de l’information

Equipe 4 :

- Mohammed LAMLILI (Docteur en mathématiques appliquées et informatique, Enseignant EHEIO)
- Anass SBAI (Ingénieur en informatique, Enseignant EHEIO)

Ce projet s'articule autour de "points durs" de Recherche relatifs à la cryptanalyse. Il s'agit là des principaux verrous techniques et conceptuels auxquels nous serons confrontés. Les principaux résultats obtenus à ce jour utilisant des techniques de cryptanalyse logique portent sur des attaques que la (seconde) pré-image de fonctions de hachage MD* et SHA-{0,1}. Nous souhaitons les décliner sur la famille des crypto systèmes low-cost dont la robustesse est encore peu éprouvée du fait de leur jeunesse. Les techniques envisagées s’inscrivent dans le thème de la cryptanalyse algébrique et plus spécifiquement de la cryptanalyse dite "logique" s'articulant autour du problème SAT.

En effet, les solveurs SAT utilisés pour s’attaquer à ces problèmes cryptographiques sont ceux conçus pour des problèmes SAT de types industriels dits "génériques". De ce point de vue, ils sont élaborés pour répondre aux problèmes de grande dimension de type Big Data mais ne sont aucunement spécialisés pour les instances de nature cryptographique, contenant des structures algébriques particulièrement singulières.

Du strict point de vue de la théorie de la complexité, cela suppose donc que nous aurons à traiter des problèmes appartenant à la classe NP et à l’exclusion totale de Co-NP. Autrement dit, la nature intrinsèque de la cryptanalyse logique nous offre la possibilité d’imaginer des solutions de traitement complètes ET incomplètes spécifiquement dédiées. Ainsi, outre l’hybridation nous pourrons également exploiter les techniques de résolution issues des méta- heuristiques telles que les colonies de fourmis, la marche aléatoire, le recuit simulé, etc. qui sont à parement inédites en cryptanalyse. L’usage d’informations issues de raisonnements probabilistes tels que décrits dans [Dequen et al. 2013] est un vecteur d’amélioration. Au final, la spécificité structurelle des problèmes cryptographiques nous laisse croire en une amélioration de leur résolution via une meilleure compréhension des équations qui le définissent.

Cette recherche permettra l’élaboration d’une solution de type méta-heuristique en vue de mener des attaques logiques.

Thème 5 : Théorie de l’information appliquée à la technologie Big Data

Equipe5 :

- Yasser LAMLILI (Docteur en informatique, Enseignant EHEIO)
- Wiam BOUTAYEB (Docteur en mathématiques appliquées et informatique, Enseignante EHEIO)

Face à l'explosion du volume d'informations, le Big Data vise à proposer une alternative aux solutions traditionnelles de bases de données et d'analyse (serveur SQL, plate-forme de Business Intelligence...).Confrontés très tôt à des problématiques de très gros volumes, les géants du Web, au premier rang desquels Yahoo (mais aussi Google et Facebook), ont été les tous premiers à déployer ce type de technologies. Selon le Gartner, le Big Data (en français "Grandes données") regroupe une famille d'outils qui répondent à une triple problématiques : un Volume de données important à traiter, une grande Variété d'informations (en provenance de plusieurs sources, non-structurées, structurées, Open...), et un certain niveau de Vélocité à atteindre - c'est-à-dire de fréquence de création, collecte et partage de ces données. C'est la règle dite des 3V.

Les principales technologies de Big Data sont nombreuses. Pour optimiser les temps de traitement sur des bases de données géantes, plusieurs approches peuvent entrer en jeu :

Des bases de données No SQL (comme Mongo DB, Cassandra ou Redis) qui implémentent des systèmes de stockage considérés comme plus performants que le traditionnel SQL pour l'analyse de données en masse (orienté clé/valeur, document, colonne ou graphe).

Des infrastructures de serveurs pour distribuer les traitements sur des dizaines, centaines, voire milliers de nœuds. C'est ce qu'on appelle le traitement massivement parallèle. Le Framework Hadoop est sans doute le plus connu d'entre eux. Il combine le système de fichiers distribué HDFS, la base No SQLH Base et l'algorithme Map Reduce.

Le stockage des données en mémoire (Memtables) permet d'accélérer les temps de traitement des requêtes.

Les données émises par les objets connectés portent en elles une composante essentielle : le temps ; une notion qui change la façon d'aborder leur stockage et leur traitement.

Le volume de données grandissant va redéfinir les règles du jeu en libérant le potentiel des technologies et de modèles économiques novateurs. Mais la sécurité sera-t-elle négligée au profit de l’innovation ? Quels seront les changements à venir ?

Une application orienté-données efficace repose sur trois piliers : la montée en charge, les API ouvertes, et la rapidité. Objectif : constituer la passerelle entre données brutes et informations.

Le Big Data s'accompagne du développement d'applications à visée analytique, qui traitent les données pour en tirer du sens. Ces analyses sont appelées Big Analytics ou «broyage de données». Elles portent sur des données quantitatives complexes avec des méthodes de calcul distribué.

L’analyse et la conception du Big Data nécessite l'extraction d'un modèle relationnel avant l'implémentation physique afin d'interpréter toutes les associations entre les classes du Big Data qui seront prêtes à être programmées. F. Codd a introduit les principes relationnels en se basant sur les notions relationnelles algébristes alors que le calcul lambda est à base fonctionnel."