*** Publications DBLP

THESES
- Ecriture d'un compilateur pédagogique, Mémoire d'ingénieur d'état en informatique ( 1980, ESI, ex INI, CERI)
- Extensions du hachage digital : Hachage digital compact, Hachage digital multiniveaux, Thèse de doctorat ( 1988, Université Paris Dauphine & INRIA)

 

CONFERENCES

 

- Toward spatial images analysis by sectioning : First approach (Avec Mohamed Gougache)
International Conference on Business Intelligence & Applications - ICBIA 2016

- AVL and red-black tree as a single balanced tree
(Avec Lynda Bounif)
International Conference on Advances in Computing, Communication and Information Technology - CCIT 2016

- New Multi-level Clustering Protocol based on PBST Method for Wireless Sensors Networks
(Avec Nassima Merabtine)
4th International Conference on Control Engineering &Information Technology (CEIT-2016)

- Red Green Black trees: extension to Red Black trees
(Avec Seif-Eddine Zouana)
9th International Conference on Computer and Electrical Engineering (ICCEE 2016)

 

- Real-time trending topics detection and description from Twitter content. (Avec Amina Madani et Omar Boussaid) Social Netw. Analys. Mining 5(1): 59:1-59:13 (2015)
 

- AllSummarizer system at MultiLing 2015: Multilingual single and multi-document summarization (Avec Abdelkrime Aries et Khaled Walid Hidouci), SIGDIAL 2015:16th Annual SIGdial Meeting on Discourse and Dialogue , Prague, September 2015
 

- What’s Happening: A Survey of Tweets Event Detection (Avec Amina Madani et Omar Boussaid)
The Third International Conference on Communications, Computation, Networks and Technologies, INNOV 2014, October 12 - 16, 2014 - Nice, France

 

- PBST*-based Hierarchical Protocol for Wireless Sensors Networks (Avec Nassima Merabtine et Djamel Djenouri )
JDI’2014: les 4eme Journées Doctorale en Informatique, Guelma. 03/12/2014.

- Stockage distribué de données dans les réseaux de capteurs sans fil
(Avec Amina Chikhaoui et Walid-Khaled Hidouci ) 2nd International Conference on New Technologies and Communication (ICNTC), Chlef, Mars 2014
 

- Semi-structured Documents Mining: A Review and Comparison (Avec Amina Madani et Omar Boussaid)
KES 2013: 330-339, Japan

 

- A Layered Multidimensional Model of Complex Objects (avec Doulkifli Boukraâ, Omar Boussaïd et Fadila Bentayeb)CAISE, June 17-21 2013, Valencia, Spain (2013: 498-513)

 

- Managing a fragmented XML data cube with oracle and timesten (AvecDoulkifli Boukraa, Omar Boussaid, Fadila Bentayeb), CIKM'12 21st ACM International Conference on Information and Knowledge Management
Maui, HI, USA — October 29 - November 02, 2012

 

- Clust-XPaths: Clustering of XML Paths (Avec Amina Madani et Omar Boussaid)
MLDM 2011: 294-305

 

- PBST*: une nouvelle variante de SDDS ( Avec Chikhaoui Amina et Hidouci Walid-Khaled )
Rencontres sur la recherche en Informatique (RI2) Tizi ouzou 12-14 juin 2011

- Towards Dynamic Data Placement in Grid
( Avec Chikhaoui Amina et Hidouci Walid-Khaled )

First internationalconference on information systems and technologies (ICIST)
24, 25 and 26 of April 2011, Tebessa

-
Distribution de données selon la méthode PBST* sur les grilles informatiques
( Avec Chikhaoui Amina et Hidouci Walid-Khaled ).  2ème Doctoriales STIC’11. Tébessa, 20-21 avril 2011. Algérie.

 

- Fast order keys preserving scalable distributed data structure ( Avec M. Aridj)  First International Conference on 'Networked Digital 
Technologies' VSB-Technical University of Ostrava, Czech Republic July 28 31, 2009

- HD*: Une nouvelle structure de données distribuée et scalable ordonée( Avec M. Aridj) Conférence Internationale des Technologies de l’Information et de la Communication CITIC’2009 du 4 au 5 Mai 2009, Sétif

 

- Mobile Client for scalable distributed compact trie hashing (avec A. BENNACEUR et W.K HIDOUCI)

International Conference on Software Engineering and Data Engineering ( Sede 2008) , june 30 - july 2, 2008, Los Angeles, California, USA

- A new multi-attributes access method for voluminous files ( Avec M. Aridj) .2005 International Symposium on Performance Evaluation of Computer and Telecommunication Systems (SPECTS'05) / July 24-28, 2005, Philadelphia, USA

- A new method for the GOTO's elimination ( Avec B. ABBASSI )
International Conference on Algorithms, Scientific Computing, Modelling and Simulation (ASCOMS'04), Caucun, Mexico, May 12-15, 2004

- Actors oriented databases ( Avec W.K Hidouci ) SEPAD 2004 3rd WSEAS International Conferenc on Software engineering, parallel and distributed systems. Salzburg, Austria, February 13-15, 2004

- Architecture Client Serveur pour la SDDS IH, ( Avec D. BOUKHELEF)
Journées Internationales d'Informatique pour l'Entreprise, JIE’02. Université de Blida (Algérie) 04-06 octobre 2004.

- Adaptation of  Trie Hashing for distributed environments. WDAS 2003. Workshop on Distributed Data structures.  Greece 13/14 June 2003

 

- IH* : Hachage Linéaire Multidimensionnel Distribué et Scalable. CARI 2002. Cameroun - 14 - 17 October. 6ième Colloque Africain sur la recherche en informatique.

 

- HI* : a new hash-based multidimensional access. WDAS 2002. Workshop on Distributed Data structures. Paris 21-22 -23 mars 2002.

- Un SGBD Objet par acteur .WDAS 2002. Workshop on Distributed Data structures. Paris 21-22 -23 mars 2002

 

- Scalable Distributed Compact Trie Hashing. WDAS 2002 Workshop on Distributed Data structures. Session démo. Paris 21-22 -23 mars 2002

-Comparison of B-trees and trie hashing for multidimensional access. 4th Maghrebian conference on software technology   and  artificial intelligence

 

-Multilevel Trie Hashing,   International conference on databases, EDBT'88,

REVUES

- AVL and Red-Black tree as a single balanced tree (Avec Lynda Bounif)

International Journal of Advances in Computer Science & Its Applications. Volume 6 : Issue 2 [ISSN 2250-3765] Publication Date : 31 August, 2016
 

- New Information in Trending Topics of Tweets by Labelled Clusters.  (Avec Amina Madani et Omar Boussaid)

JIKM 14(3) (2015)

 

- Semi-structured Documents Mining: A Review and Comparison (Avec Amina Madani et Omar Boussaid)
Procedia Computer Science 22 ( 2013 ) 330 – 339, ScienceDirect, Elsevier

 

- A Layered Multidimensional Model of Complex Objects (Avec Doulkifli Boukraa, Omar Boussaid, Fadila Bentayeb)

LNCS Series, Springer-Verlag  2013

 

- Managing a fragmented XML data cube with oracle and timesten (Avec Doulkifli Boukraa, Omar Boussaid, Fadila Bentayeb), ACM Digital Library :Proceeding DOLAP '12 Proceedings of the fifteenth international workshop on Data warehousing and OLAP, Pages 97-104

 

- TH*:Scalable Distributed Trie Hashing (Avec Aridj Mohamed), CoRR abs/1205.0439 (2012)

- Modèle multidimensionnel d'objets complexes, du modèle d'objets aux cubes complexes (AvecDoulkifli Boukraa, Omar Boussaid, Fadila Bentayeb), Revue des Sciences et Technologie de l’Information (RSTI-ISI), vol. 16(6), 2011, pp. 41-65

- Using Actors to Build a Parallel DBMS ( Avec Waled-Khaled Hidouci)
JCIT 19(2): 71-82 (2011)

- TH*: Scalable Distributed Trie Hashing ( Avec M. Aridj) 

International Journal of Computer Science Issues. Published in Volume 7, Issue 6, pp 109-115, November 2010

 

-Towards a complete scalable distributed data structure ( Avec W.K Hidouci )
IJIS : international journal of information studies. pp182-191. ISSN 1911-6414 (Online)/ 2009

http://www.istudies.net/ojs/index.php/journal/article/view/49/55 

 

- An actor like data model for a parallel DBMS  ( Avec W.K Hidouci). Journal of Digital Management Vol6. Issue3. June2008.

 

- ACT21: a Parallel Main Memory Databases System( Avec W.K Hidouci )  International Journal of Computing & Information Sciences. 2007

 

- ECOLE : a pedagogical environment for non procedural languages ( Avec W.K Hidouci )Journal of Computer Science and Technology. 2006

 

-Actors oriented databases ( Avec W.K Hidouci ),  WSEAS Transactions in computer. 2004

 

-Scalable Distributed Compact Trie Hashing  - IST : Information Software Technology. Elseiver. 2004

 

-Adaptation of trie hashing for distributed environments - Carleton Scientific - Canada, 2004

 

- An Arabic environment for learning programming with the Z Language ( Avec T. Zerrouki). Review of Computer Science Research . Federation of Arab Scientific Research Councils. Baghdad, Iraq (In Arabic), 2002


-CONCORD, an environment of construction, correction and transformation of algorithms (Avec G. Lévy et W. Litwin). IST ( Information Software Technology), 1997

 

-Trie hashing with the sequential representations of the trie. (Avec W. Litwin) International Review of advanced technologies, 1995

 

 

LIVRES
-Structures de données et de fichiers. Programmation Pascal et C
-Structures de données et de fichiers. Recueil d'exercices corrigés
-Apprendre et enseigner l’algorithmique (Tome1) / Cours et annexes

-Apprendre et enseigner l’algorithmique (Tome2) / Sujets d'examen corrigés Exercices programmés en PASCAL

- Khawarizm : Apprendre l'algorithmique via le langage ZEI ( EN ARABE)

 


THESES

Écriture d'un compilateur pédagogique, Mémoire d'ingénieur d'état en informatique, Alger, 1980.

    Il s'agit de l'écriture d'un compilateur pédagogique pour l'enseignement. La manière dont il est réalisé c'est a dire la méthode d'analyse syntaxique choisie, l'inclusion des actions sémantiques, le principe de traitement des erreurs et d'une façon générale sa décomposition en plusieurs fonctions est liée à l'optique assignée  à savoir pouvoir l'utiliser pour l'enseignement. Un langage simple a été choisi couvrant certaines notions de base de compilation  telles que compilation séparée, bloc, récursivité, appel, déclarations; etc. 

    Le compilateur développé constitue un projet de base sur lequel prendront naissance d'autres projets. Par exemple, on s'intéressera à l'efficacité,  du compilateur écrit, à son optimisation, à l'extension du langage, à l'emploi d'autres méthodes syntaxiques, etc. Le travail initial consiste, à générer uniquement la forme intermédiaire. Afin de tester notre compilateur,  un générateur du langage d'assemblage a aussi été développé pour utiliser l'assembleur existant et prouver ainsi que notre compilateur est correct.

Extensions du hachage digital : Hachage digital compact, Hachage digital multi niveaux, Thèse de doctorat, Université Paris Dauphine, France, 1988.

    Le hachage digital, conçu en 1981, est une nouvelle technique d'accès aux fichiers ordonnés mono-clés et dynamiques. La méthode est basée sur le concept du hachage dynamique. Son facteur de chargement est de l'ordre de 70%. En plus, un accès disque suffit au plus pour retrouver tout article pouvant appartenir à un fichier de quelques millions d'articles.

Cette thèse propose deux extensions du hachage digital :

    -    l' une, appelée hachage digital multi niveaux, consiste à segmenter la fonction d'accès - arbre digital - en pages sur le disque. Deux accès disque suffisent alors de retrouver tout article, même dans les fichiers les plus larges.

    - l' autre, appelée hachage digital avec représentations séquentielles, consiste à donner des représentations mémoire très concises de l'arbre digital. On peut alors doubler la taille du fichier tout en maintenant les performances d'accès et de chargement de la mémoire du hachage digital, sauf que les algorithmes sont moins rapides.

En anglais

    Trie hashing, designed in 1981, is a new access method to primary key ordered dynamic files. The method is based on the concept of dynamic hashing. His load factor is about 70%. Further, key search needs at most one disk access in files of a few millions of records.

These thesis proposes two extensions of trie hashing :

- the one, called multilevel trie hashing, consists in segmenting the access function - trie - in pages on the disk . Two disk access usually suffice for a key search in even very large files.

- the other, called trie hashing with sequential representations, consists in giving a few compact memory representations of the trie. We can then double the file size with the same access and load performances of trie hashing, except the algorithms are less fast.

 


CONFERENCES

Multilevel Trie Hashing,  International conference on databases, EDBT'88, Venice (Italy) (1988)

    Trie hashing is one of the fastest access methods to primary key ordered dynamic files. The key address is computed through a trie usually in core. Key search needs then at most one disk access. For very large files, trie size may however become prohibitive. We present an extension of the method, where the trie is split into subtries stored each in a page on the disk. Address computation requires the core for a single page. Two disk accesses may suffice for any key search in a Gbyte files.

 

A TELECHARGER

 

Comparison of B-trees and trie hashing for multidimensional access. 4th Maghrebian conference on software technology and    artificial intelligence  (1996).

    With the apparition of dynamic hashing, a multitude of access methods has submerged. These methods have been conceived for multiple keys as well as for monokey access. In addition they give good performance searching time. In this paper, we have analyzed, mainly by simulation, two methods in a multiple attributes environment in order to compare them : multidimensional B-trees (MBT) proposed by M. OUKSEL and P. SCHEUERMANN [Ouk81,Sch82] and multidimensional trie hashing (MTH) conceived by E.J. OTOO [Oto87]. The most significant results were   1- The access performance for exact, partial and range queries defined on MTH are better than those defined on the MBT method.
2- The average costs of MTH insertion’s and deletion’s are better than the MBT one’s.
3- The load factor is lower for MTH since it is about 40%

Key Words :  Access method, Dynamic hashing, Trie hashing, B-trees, Multidimensional access.

 

A TELECHARGER

Scalable Distributed Compact Trie Hashing. WDAS 2002 Workshop on Distributed Data structures. Session démo. Paris 21-22 -23 mars 2002

    CTH* (Distributed Compact Trie Hashing) est une structure de fichiers conçue spécialement pour les environnements distribués. CTH* est caractérisée (1) par la scalabilté, c'est à dire la distribution du fichier sur plusieurs serveurs, (2) par l'absence d'un serveur maître et (3) par le fait que les clients ne se connaissent pas, interdisant ainsi tout dialogue entre eux. Contrairement à la plupart des méthodes existantes, CTH* préserve l'ordre des articles et supporte bien les opérations de requêtes à intervalle.

    Un programme de démo a été développé montrant un ensemble de clients autonomes effectuant des opérations sur un fichier rangé sur plusieurs serveurs. Chaque client possède une fonction d'accès aux données du fichier matérialisée par un arbre compact. Comme cette fonction (représenté par un arbre binaire compact car dynamique) ne montre qu'une vue partielle du fichier, des erreurs d'adressage peuvent donc apparaître. La démo montre les états des clients et des serveurs après l'insertion d'un ensemble d'articles par les clients. Elle montre le mécanisme d'évolution des fonctions d'accès des clients et les états des serveurs. Elle fournit également des statistiques sur la méthode.

   TELECHARGER LA DEMO

Un SGBD Objet par acteur .WDAS 2002. Workshop on Distributed Data structures. Paris 21-22 -23 mars 2002

    En programmation, les langages par acteurs sont orientés vers le traitement parallèle et le développement de systèmes ouverts. Ce sont des langages objets assez proches du paradigme populaire de la programmation objet par classe. Dans ce modèle, une application est un ensemble d'entités autonomes (les acteurs) communiquant entre elles de manière asynchrone afin d'atteindre un but commun. L'idée dans cet article consiste à intégrer les techniques de la programmation par acteurs, les nouvelles structures de données distribuées  et les bases de données objets.

    Le résultat serait alors un nouveau type de SGBD parallèle pour multi-ordinateur où le modèle de données combine les objets usuels (approche par classes) et les acteurs. Son système de stockage utilise de nouvelles structures de données distribuées permettant ainsi de répartir les données et opérations qui les manipulent sur les différents nœuds du réseau.

    Avec un tel SGBD on pourra développer des applications base de données en utilisant le paradigme de la programmation par acteur, bien adapté aux systèmes parallèles. Une base de données serait alors composée d'un ensemble d'acteurs détenant chacun une partie de la connaissance et coopérant à travers des échanges de messages pour répondre aux requêtes utilisateurs ou aux programmes d'applications.

 

A TELECHARGER

 

HI* : a new hash-based multidimensional access. WDAS 2002. Workshop on Distributed Data structures. Paris 21-22 -23 mars 2002.

    Classic one-dimensional data structures are very important. Nevertheless, the new data management systems (CAD, Web,..) need new access methods that support efficiently spatial operations on multi-attributes (multidimensional ) data files. Scalable Distributed Data Structures (SDDS) is a new class of data structures conceived specially for multicomputers: collection of PCs and workstations interconnected by a high speed network (Ethernet, ATM, Token Ring,...).

    Data of an SDDS are stored in the distributed memory of a multicomputer; which permits to implement large files and allows a very fast access time to the data comparatively to those stored on physical discs. These characteristics give the SDDS processing performances considerably higher than those of classic data structures. Nowadays, several SDDS are developed such as: LH* (extension of LH to distributed environments), RP* (scalable distributed version of the B-trees ); k-RP* (multi-attributes RP*); k-DRT, … The SDDS presented in this paper named IH*, is the first scalable distributed data structure based on multidimensional linear hashing (IH). IH* constitutes an extension of the interpolation-based hashing of Burkhard  to distributed environments and also, an introduction of the order and spatial aspects to Litwin's SDDS LH* [LNS96]. Its main objective is to provide a scalable distributed multi-attributes file which preserves the order of records. An IH* file can start on a single machine (server) and extends dynamically through insertion over an infinite number of machines. This file is accessed simultaneously by several clients distributed on the multicomputer. IH* supports the simple and spatial operations (insert, delete) and manages efficiently exact and partial match queries.

 

A TELECHARGER

 

IH* : Hachage Linéaire Multidimensionnel Distribué et Scalable CARI 2002. Cameroun - 14 - 17 October. 6ième Colloque Africain sur la recherche en informatique.

    Les nouvelles applications informatiques (CAO, Web, …) manipulent de plus en plus de grandes quantités de données spatiales. Devant cette tendance, les nouveaux systèmes de gestion de bases de données nécessitent une nouvelle classe de structures de données permettant une distribution efficace des fichiers multi-attributs et volumineux. Cette nouvelle classe, apparue cette dernière décennie, est connue sous le nom SDDS (Structures de Données Distribuées et Scalables). Dans cet article, nous présentons une nouvelle structure de données multidimensionnelle distribuée et scalable nommée IH* (Interpollation Hashing star) conçue spécifiquement pour ce but. Comme d'autres SDDS, IH* profite avant toute chose des capacités des multi-ordinateurs (cumul des RAMs et traitement parallèle).

    La méthode proposée est considérée comme une extension de LH* (Linear Hashing) de W. Litwin dans laquelle l'ordre des articles est préservé et le multi-attribut est possible. IH* peut aussi être vue comme une adaptation de IH de Burkhard pour un environnement distribué. Nous montrerons que IH* gère mieux les requêtes à intervalle par rapport au schéma LH* du fait que IH* réduit considérablement le nombre de serveurs explorés.

A TELECHARGER

Adaptation of  Trie Hashing.for distributed environments. WDAS 2003. Workshop on Distributed Data structures.  Greece 13/14 June 2003

     This last decade a new class of data structures, named Scalable Distributed Data Structures (SDDS), was born totally devoted for the multi computers. They are based on client/server architecture. The following properties characterize the SDDS :- Distribution of the file buckets on the servers, - No a main server, - No dialogue between the clients. Each client owns usually an image of the file. The clients can make addressing errors. The client image is updated gradually until obtaining the real image. They are updated using messages called Image Adjustment Messages (IAMs). 

     The question in this paper is to distribute the well known method Trie hashing relatively to the properties of SDDS. The results obtained show that the new scheme is promising for the following reasons: - Order-preserving, - Practically without multicast, -Three bytes are sufficient to address a server, - The transfer of some bytes is enough for the updating of trees on  the level to the clients.

 

A TELECHARGER

Actors oriented databases ,  SEPAD 2004 3rd WSEAS International Conference on Software engineering, parallel and distributed systems. Salzburg, Austria, February 13-15, 2004

    - We present in this paper the new concept of "actor databases" (DB-Act) being studied at the INI institute (Act21 project) where we are developing a parallel DBMS based on an actor like data model. To achieve data distribution we use a Scalable Distributed Data Structures (SDDS) called "distributed Compact Trie Hashing" (CTH*) currently in development at the same project.

    Processing distribution is made through actors (dynamic autonomous objects) implemented with the PVM (Parallel Virtual Machine) library. A database is then a collection of actors that maintain and manage data over a multi-computer and collaborate with each other to evaluate user queries and application programs.

A TELECHARGER

A new method for the GOTO's elimination , International Conference on Algorithms, Scientific Computing, Modelling and Simulation (ASCOMS'04), Caucun, Mexico, May 12-15, 2004

     We suggest in this paper a new method of algorithm's structuration. We will first show how to move from any B-algorithm (algorithm with GOTO) to an automate expressed by its transition matrix. Then, we will show how to associate a D-algorithm ( algorithm without GOTO ) to this transition matrix. The proposed method leads to very readable algorithms and shows explicitly the semantic of the original B-algorithm compared to the existing methods.

A TELECHARGER

A new multi-attributes access method  for voluminous files ( Avec M. Aridj) .2005 International Symposium on Performance Evaluation of Computer and Telecommunication Systems (SPECTS'05) / July 24-28, 2005, Philadelphia, USA


Multidimensional trie hashing (MTH) access method is an extension of the trie hashing for multikey dynamic
files (or databases). Its formulation consists in maintaining in main memory (d) separated tries, every
one indexes an attribute. The data file represents an array of dimension (d), orderly in a linear way on the disk. The
correspondence between the physical addresses and indexes resulting of the application of the tries is achieved
by the mapping function. In average, a record may be found in one disk access, what ranks the method among
the most efficient known. The inconvenient of MTH is double :a weak occupancy of file buckets (40-50%) and an increasing of memory space according to the file size (tries in memory). We propose a refinement of MTH on two levels. First, by using of the compact representations of tries suggested in [6], then by applying the phenomenon of delayed splitting ( partial expansion ) as introduced in the first methods of dynamic hashing and as used in [16]. The analysis of performances of this new scheme, mainly by simulation, shows on the one hand a high load factor (70-80%) with an access time practically equal to one disk access and on the other hand an increasing of file size with a factor of two with the same space used by MTH..

A TELECHARGER

Mobile Client for scalable distributed compact trie hashing (avec A. BENNACEUR et W.K HIDOUCI)

International Conference on Software Engineering and Data Engineering (Sede 2008) , june 30 - july 2, 2008, Los Angeles, California, USA


Scalable and Distributed Data Structures (SDDS) are a class of data structures completely dedicated to distributed
environments. They allow the management of large amounts of data while keeping steady and optimum
performances. Several families of SDDS have been proposed: LH*, RP*, DRT*, CTH*. None of these SDDS
treated the mobile environment. In this paper, we present a novel architecture that use scalable and distributed data
structure to manage insert/find/rang query operations for mobile clients. We describe the design and the
implementation of a mobile CTH* prototype. Our experimental results prove the validity of the design
choices and show attractive access performance. The capabilities of the mobile CTH* platform offer new
perspectives for high performance and ubiquitous data intensive applications.
Keywords : Mobility, scalability, distributed data structure, trie hashing.

A TELECHARGER


Distribution de données selon la méthode PBST* sur une grille informatique (avec A. CHIKHAOUI et W.K HIDOUCI)

2ième Doctoriales STIC’11. Tébessa, 20-21 avril 2011. Algérie.


Les grilles informatiques impliquent le partage des ressources hétérogènes de calcul et de stockage à l’échelle planétaire. Récemment, l’utilisation des infrastructures de grilles a été centrée sur les applications de distribution des grands volumes de données. Les méthodes de gestion des données modernes ne reposent plus sur des systèmes centralisés. Pour offrir de meilleurs temps, il faut appliquer des structures dédiées aux environnements distribués. PBST* (Distributed Partitioned Binary Search Tree) est une structure de données arborescente dédiée aux environnements distribués. Cette méthode se caractérise particulièrement par le partitionnement dynamique de données en vue de les distribuer sur plusieurs ressources informatiques et de les traiter en parallèle. Dans cet article, nous proposons un protocole de distribution de données selon PBST* pour le placement de données sur les grilles.

A TELECHARGER


Towards Dynamic Data Placement in Grid (avec A. CHIKHAOUI et W.K HIDOUCI)

First internationalconference on information systems and technologies (ICIST)
24, 25 and 26 of April 2011, Tebessa, Algérie

Grid computing involves sharing heterogeneous calculation and storage resources. Recently, the use of grid infrastructure has been focused on applications of distribution of large volumes of data. The modern methods of data management are no longer based on centralized systems. To provide better time of research, we must apply structures dedicated to distributed environments. PBST*(Distributed Partitioned Binary Search Tree) is variant of SDDS (Scalable Distributed Data Structure).It is a tree data structure dedicated to distributed environments. This method is particularly characterized by the dynamic partitioning of data in the offing to distribute it on multiple storage resources and to treat it in parallel. In this paper, we propose a protocol for data distribution according PBST* for data placement on grids.

A TELECHARGER


REVUES

- Semi-structured Documents Mining: A Review and Comparison.
Procedia Computer Science 22 ( 2013 ) 330 – 339, ScienceDirect, Elsevier

The number of semi-structured documents that is produced is steadily increasing. Thus, it will be essential for discovering new knowledge from them. In this survey paper, we review popular semi-structured documents mining approaches (structure alone and both structure and content). We provide a brief description of each technique as well as efficient algorithms for implementing the technique and comparing them using different comparison criteria.
Keywords: Semi-structured documents; documents mining; clustering; association; classification; structure mining; content mining

A TELECHARGER

Trie hashing with the sequential representations of the trie. International Review of advanced technologies, Algiers (1995)

    Trie hashing is one of the fastest methods for accessing data on the disk. As long as the trie is in core, any key search takes at most one disk access. The trie size depends linearly on the file size and on the representation chosen for the trie. The representation considered until now was called standard representation. We propose two representations that are about two times more compact. The same buffer in core, suffice then for about two times larger file. The price is that the algorithmic is more complex and needs more processing time.

KEY WORDS : Algorithms, Data structures, File structures, B-trees, Hashing, Dynamic hashing.

 

A TELECHARGER

CONCORD, an environment of construction, correction and transformation of algorithms. IST ( Information Software Technology), Elseiver (1997)

        We introduce in this paper an environment for writing, automatically proving and transforming algorithms. The environment is baptized "CONCORD" and constitutes a synthesis on procedural languages. We consider many types of construction : from flowcharts, well-known of yesteryear, to structured algorithms. CONCORD allows all the transformations and different methods of proofs thanks to debuggers, symbolic evaluators and automatic provers which we are developed. The objective of CONCORD is above all pedagogical, since it gets right to the bottom of the procedural programming.

Keywords : Algorithm, Automaton, Proof, Symbolic evaluation, Transformation, Compiler.

Work supported by the Ministry of the research of Algiers under the research project entitled "CONCORD".

A TELECHARGER

 

Khawarizm : An Arabic environment for learning programming with the Z Language. Review of computer science Research. Federation of Arab Scientific Councils. Baghdad, Iraq. / 2002

سنعرض في مقالنا هذا بيئة خوارزم العربية المهيأة لتعليم المبتدئين أوليات البرمجة باستعمال لغة خوارزمية عربية تسمى لغة زاي، في بيئة مزودة بأدوات مساعدة منها المحرر و المنفذ و المحاكي  و القاموس و مساعد  موّثَق  للترجمة إلى باسكال . وميزة هذه اللغة استعمال آلات مجردة لكتابة خوارزميات .الذاكرةجردة تُغني المبرمج عن الإلمام بالأجهزة و خاصة ا

    We propose in this paper an arabic environment, baptized KHAWARIZM, allowing to write algorithms with an arabic algorithmic language ( Zei language ) , to indent them, to unroll or simulate them and offering all the documentation to translate them to procedural languages PASCAL . The Zei language allows the development of abstract algorithms, i.e. algorithms independently of the memory representation and then renders easy their writing. KHAWARIZM allows the learning the basic of the algorithmic and the main data structures. Thanks to its integrated simulator, it intends to do the assisted conception of algorithms and thanks to its integrated hypertext it helps the user to translate algorithms to PASCAL. 

     Nous proposons dans cet article un environnement arabe , baptisé KHAWARIZM, offrant la possibilité d'écrire des algorithmes dans un langage algorithmique arabe (langage Zei), de les arranger, de les dérouler ou les simuler et de fournir toute la documentation nécessaire pour les traduire vers les langages de programmation PASCAL. Le langage Zei permet l’écriture des algorithmes abstraits, c’est à dire des algorithmes indépendants, de toute représentation mémoire et facilite ainsi leur écriture. KHAWARIZM permet l’apprentissage des bases de l'algorithmique et les principales structures de données. Grâce à son simulateur intégré, il vise la conception assistée des algorithmes et grâce à son hyper-texte intégré il assiste aussi l'utilisateur pour traduire son algorithme en PASCAL.

Mots clé : algorithmique, initiation , la langue arabe, machines abstraites

 

A TELECHARGER

Adaptation of trie hashing for distributed environments, Proceeding in Informatics, Careleton Scientifque, Canada, 2004

 This last decade a new class of data structures, named Scalable Distributed Data Structures (SDDS), was born totally devoted for the multi computers. They are based on client/server architecture. The following properties characterize the SDDS :- Distribution of the file buckets on the servers, - No a main server, - No dialogue between the clients. Each client owns usually an image of the file. The clients can make addressing errors. The client image is updated gradually until obtaining the real image. They are updated using messages called Image Adjustment Messages (IAMs). 

     The question in this paper is to distribute the well known method Trie hashing relatively to the properties of SDDS. The results obtained show that the new scheme is promising for the following reasons: - Order-preserving, - Practically without multicast, -Three bytes are sufficient to address a server, - The transfer of some bytes is enough for the updating of trees on  the level to the clients.

 

A TELECHARGER

    

"Scalable Distributed Compact Trie Hashing" ( CTH*)  IST : Information Software Technology. Elseiver. 2004

    This last decade, a new class of data structures named Scalable Distributed Data Structures (SDDSs), is appeared completely dedicated to a distributed environment. This type of data structures opened an important axis of research, considering that the data management in a transparent manner is fundamental in a computer network.

    All the existing methods are mainly based on Linear hashing (LH*) and Range-partitioning (RP*). In this paper, we propose a new method with the constraints of the SDDS. Our approach is an adaptation of the well known method Trie hashing(TH) for a distributed environment, i.e., a network of interconnected computers. The latter uses a digital tree (trie) as access function. Our major objective is the distribution of file buckets and the tree representing the hashing function. We have considered TH with the tree represented in compact form (CTH) because this option is probably more interesting for the reduction of the message size circulating on the network. Contrary to the majority of the existing methods, the proposed one provides the order of distributed files, then facilitates both the range query operations and the ordered traversal of files. Moreover, the following properties make our method a promising opening towards a new class of SDDS :

- preservation of the order of records,

 - works without multicast

- three bytes are sufficient to address a server,

- the transfer of some bytes is enough for the update of the client trees.

The access performances should exceed the ones of traditional files and some competitive scalable and distributed data structures.

 

A TELECHARGER
 

 

Actors oriented databases , WSEAS Transactions in computer, 2004

    - We present in this paper the new concept of "actor databases" (DB-Act) being studied at the INI institute (Act21 project) where we are developing a parallel DBMS based on an actor like data model. To achieve data distribution we use a Scalable Distributed Data Structures (SDDS) called "distributed Compact Trie Hashing" (CTH*) currently in development at the same project.

    Processing distribution is made through actors (dynamic autonomous objects) implemented with the PVM (Parallel Virtual Machine) library. A database is then a collection of actors that maintain and manage data over a multi-computer and collaborate with each other to evaluate user queries and application programs.

A TELECHARGER

ECOLE : a pedagogical environment for non procedural languages. Journal of Computer Science and Technology. 2006

The work described in this paper is related to three areas in the programming world : logic, functional and object programming. The main objective is essentially pedagogical since it is question here to make a synthesis on non procedural languages. To achieve this, we have considered many construction types, each one represents the one of evoked programming. Many fully-documented environments have been developed for writing constructions of any type, transforming them in order to evaluate them by showing the work really accomplished in the least detail.

A TELECHARGER

Act21: a Parallel Main Memory Databases System.

International Journal of Computing & Information Sciences. 2006

We present in this paper the new concept of “actor databases” (DB-Act) being studied at the INI institute (Act21 project) where we are developing a parallel main memory database system based on an actor like data model. To achieve data distribution we use a Scalable Distributed Data Structures (SDDS) called “distributed Compact Trie Hashing” (CTH*) currently in development at the same project.

Transaction management and recovery techniques are adapted for the combination of actors and SDDS in Act21. An adaptation of the nested transaction model to the actor paradigm is presented, as well as a recovery techniques using a fuzzy checkpointing tailored to the SDDS needs.

A TELECHARGER

An actor like data model for a parallel DBMS  (Avec W.K Hidouci). Journal of Digital Management Vol6. Issue3. June2008.

We present in this paper the new concept of “actor databases” (DB-Act) being studied at the INI institute (Act21 project) where we are developing a parallel main memory database system based on an actor like data model. To achieve data distribution we use a Scalable Distributed Data Structures (SDDS) called “distributed Compact Trie Hashing” (CTH*) currently in development at the same project.

Transaction management and recovery techniques are adapted for the combination of actors and SDDS in Act21. An adaptation of the nested transaction model to the actor paradigm is presented, as well as a recovery techniques using a fuzzy checkpointing tailored to the SDDS needs.

A TELECHARGER

 

Using Actors to Build a Parallel DBMS ( Avec W.K Hidouci )
JCIT 19(2): 71-82 (2011)

In this paper, we present the design and the architecture
of a parallel main memory database management
system. We focus on concurrency control scheme and
recovery. Our prototype is based on the concept of
“database actors”, an object-oriented data model well
suited for parallelmanipulations. The storage sub system
is built upon distributed Ram-files using SDDS (Scalable
Distributed Data Structures) techniques. A nested transaction
model is proposed and used to handle concurrency
access and recovery. We have also proposed novel
approach, based on wait-die, to implement a distributed
deadlock prevention technique for our model of nested
transactions.

A TELECHARGER

 

Modèle multidimensionnel d’objets complexes: du modèle d’objets aux cubes d’objets complexes (AvecDoulkifli Boukraa, Omar Boussaid, Fadila Bentayeb)Revue des Sciences et Technologie de l’Information (RSTI-ISI), vol. 16(6), 2011, pp. 41-65 

RÉSUMÉ. La modélisation multidimensionnelle est aujourd’hui reconnue comme reflétant le mieux la vision des décideurs sur les données à analyser. Cependant, les modèles multidimensionnels classiques ont été pensés pour traiter des données numériques ou symboliques mais échouent dès lors qu’il s’agit de données complexes. Les opérateurs d’analyse en ligne (OLAP) classiques sont alors à redéfinir dans le cadre de données complexes, voire d’autres sont à créer. Dans cet article, nous définissons un modèle multidimensionnel d’objets complexes. Nous proposons également un opérateur OLAP pour la construction de cubes d’objets complexes à partir du modèle multidimensionnel.

ABSTRACT. Nowadays, multidimensional modeling is recognized to best reflect the decision makers’ analytical view of data. However, the classical multidimensional models were meant to handle numerical or symbolic data but they fail regarding complex data. Particularly, the classical OLAP operators are to be redefined or new ones will be created in the context of complex data. In this paper, we define a multidimensional model of complex objects. We also propose an OLAP operator in order to construct cubes of complex objects from the multidimensional model.

A TELECHARGER

 

 

TH*: Scalable Distributed Trie Hashing( Avec M. Aridj )

International Journal of Computer Science Issues
Published in Volume 7, Issue 6, pp 109-115, November 2010

In today’s world of computers, dealing with huge amounts of
data is not unusual. The need to distribute this data in order to
increase its availability and increase the performance of
accessing it is more urgent than ever. For these reasons it is
necessary to develop scalable distributed data structures.
In this paper we propose a TH* distributed variant of the Trie
Hashing data structure. First we propose Thsw new version of
TH without node Nil in digital tree (trie), then this version will
be adapted to multicomputer environment. The simulation results
reveal that TH* is scalable in the sense that it grows gracefully,
one bucket at a time, to a large number of servers, also TH*
offers a good storage space utilization and high query efficiency
special for ordering operations.

A TELECHARGER

Towards a complete scalable distributed data structure ( Avec W.K Hidouci )
IJIS : international journal of information studies. pp182-191. ISSN 1911-6414 (Online)/ 2009

In this paper, we describe a scalable distributed data structure (SDDS) with a complete enough environment offering a set of functions to manage and access information distributed in a computer network. The SDDS model differentiates from the other ones by the absence of a central directory. The big asset of the SDDS is the scalability property; that is, when adding new data servers to handle the growth of data size, the performances don’t deteriorate. The main objective
in this paper is to present a set of works related to CTH*, a SDDS method based on the usage of unicast messages only (point-to-point connections), in order to obtain a more complete environment at two levels. First, in the internal layer, we  have developed a fl ow controller enhancing reliability of messages passing, and a more effi cacious data organization that
permits high availability when failures occur. Concurrency control and recovery techniques have also been added to provide transaction management for transactional clients. Second, in the external layer, we have extended the initial CTH* platform by providing a mobile client that access to data servers via a mobile telephone.

A TELECHARGER


LIVRES

Structures de données et de fichiers. Programmation Pascal et C

        Edition CHIHAB, Alger (1997)

       Quelles structures de données choisir pour développer des logiciels à moindre coût et facilement maintenables ? tel est l'objectif recherché à travers cet ouvrage.

  • Ce livre décrit d'une manière très succincte et originale les principales structures de données utilisées dans les mémoires internes et externes des ordinateurs.

  • On y trouvera les notions de tableaux, de listes linéaires chaînées, d'arbres et de hachage pour le stockage des données aussi bien en mémoire centrale que sur les supports externes.

  • Deux stratégies très usitées sont décrites et implémentées : les piles et les files d'attente.

  • La récursivité, un mécanisme puissant pour l'écriture des algorithmes, est également exposée en mettant en évidence sa sémantique.

  • Enfin, une série d'exercices programmés dans les langages procéduraux PASCAL et C est également fournie.

Ce livre s'adresse à des étudiants ayant déjà une première expérience en programmation. Il est aussi destiné aux ingénieurs et chercheurs, principalement comme un guide pratique.

 


Structures de données et de fichiers. Recueil d'exercices corrigés ( Appel à publication )

Tous droits réservés Il est formellement interdit de publier tout ou partie du livre sans l'autorisation préalable de l'auteur.

 Maîtriser les algorithmes sur les principales structures de données et de fichiers, tel est l'objectif recherché à travers cet ouvrage.

Ce livre a pour objet :

  •   La présentation brève des principales structures de données et de fichiers. Comme structures de données on y trouvera les listes linéaires chaînées, les piles, les files d'attente, les arbres, les techniques de hachage. Comme structures de fichiers, on y trouvera les structures simples, les méthodes d'index pour l'accès uni et multidimensionnel, les méthodes d'arbres et de hachage.

  •   La proposition d'un éventail de sujets d'examens avec des corrigés type portant sur        toutes les structures de données et de fichiers évoquées. Ainsi, plus d'une centaine d'algorithmes sont proposés et solutionnés dans un langage algorithmique clair et concis.

Ce livre s'adresse à des étudiants ayant déjà des connaissances en matière de structures de données et de fichiers. Il est aussi destiné aux ingénieurs et chercheurs, principalement comme un guide pratique.


Apprendre et enseigner l'algorithmique (Tome 1) / Cours et annexes

        Editions universitaires européennes (2013)

Comprendre progressivement la programmation, maîtriser les algorithmes de base. Tels sont les objectifs recherchés à travers cet ouvrage. Ce livre -en deux tomes- décrit d'une manière très succincte les concepts de base de l'algorithmique et de la programmation. De nombreux algorithmes sont développés sur la machine de Turing permettant de s'expérimenter sur le formalisme algorithmique. Une méthode de conception d'algorithmes qu'est l'analyse descendante est exposée en mettant en évidence ses caractéristiques. On y trouvera également des notions de quelques structures de données élémentaires telles que les tableaux et les listes linéaires chaînées. Une introduction aux fichiers et aux structures de fichiers est également exposée et étoffée de nombreux programmes. Un éventail de sujets d'examens avec des corrigés-type portant sur tous les cours est proposé. Ainsi, plus d'une centaine d'algorithmes sont proposés et solutionnés dans un langage algorithmique clair et concis. Enfin, une série d'exercices programmés en PASCAL est aussi fournie. Ce livre s'adresse à des étudiants désirant s’initier à la programmation. Il est aussi destiné aux enseignants, principalement comme un guide.

 


Apprendre et enseigner l'algorithmique (Tome 2)/ Sujets d'examen corrigés Exercices programmés en PASCAL

        Editions universitaires européennes (2013)

Comprendre progressivement la programmation, maîtriser les algorithmes de base. Tels sont les objectifs recherchés à travers cet ouvrage. Ce livre -en deux tomes- décrit d'une manière très succincte les concepts de base de l'algorithmique et de la programmation. De nombreux algorithmes sont développés sur la machine de Turing permettant de s'expérimenter sur le formalisme algorithmique. Une méthode de conception d'algorithmes qu'est l'analyse descendante est exposée en mettant en évidence ses caractéristiques. On y trouvera également des notions de quelques structures de données élémentaires telles que les tableaux et les listes linéaires chaînées. Une introduction aux fichiers et aux structures de fichiers est également exposée et étoffée de nombreux programmes. Un éventail de sujets d'examens avec des corrigés-type portant sur tous les cours est proposé. Ainsi, plus d'une centaine d'algorithmes sont proposés et solutionnés dans un langage algorithmique clair et concis. Enfin, une série d'exercices programmés en PASCAL est aussi fournie. Ce livre s'adresse à des étudiants désirant s’initier à la programmation. Il est aussi destiné aux enseignants, principalement comme un guide.


Khawarizm: Apprendre l'algorithmique via le langage ZEI (EN ARABE)

(  Appel à publication )

Tous droits réservés Il est formellement interdit de publier tout ou partie du livre sans l'autorisation préalable de l'auteur.

Abstract:

We propose in this book an Arabic environment, baptized KHAWARIZM, allowing to write algorithms with an Arabic algorithmic language( Zei language ) , to indent them, to unroll or simulate them and offering all the documentation to translate them to the procedural language PASCAL . The Zei language allows the development of abstract algorithms, i.e. algorithms independently of the memory representation and then renders easy their writing. KHAWARIZM allows the learning the basic of the algorithmic and the main data structures. Thanks to its integrated simulator, it intends to do the assisted conception of algorithms and thanks to its integrated hypertext it helps the user to translate algorithms to PASCAL.

Résumé:

Nous proposons dans ce livre un environnement arabe , baptisé KHAWARIZM, offrant la possibilité d'écrire des algorithmes dans un langage algorithmique arabe (langage Zei), de les arranger, de les dérouler ou les simuler et de fournir toute la documentation nécessaire pour les traduire vers le langage de programmation PASCAL. Le langage Zei permet l’écriture des algorithmes abstraits, c’est à dire des algorithmes indépendants de toute représentation mémoire et facilite ainsi leur écriture. KHAWARIZM permet l’apprentissage des bases de l'algorithmique et les principales structures de données. Grâce à son simulateur intégré, il vise la conception assistée des algorithmes et grâce à son hyper-texte intégré il assiste aussi l'utilisateur pour traduire son algorithme en PASCAL.