THESES
- Ecriture d'un
compilateur pédagogique, Mémoire d'ingénieur d'état en informatique (
1980, ESI, ex INI, CERI)
- Extensions du hachage digital : Hachage digital compact,
Hachage digital multiniveaux, Thèse de doctorat ( 1988, Université Paris
Dauphine & INRIA)
CONFERENCES
- A Survey on Balanced Binary Search Trees methods (avec Fahd Mustapha Meguellati )
International Conference on Information Systems and Advanced Technologies (ICISAT) DOI: 10.1109/ICISAT54145.2021.9678439, 27-28 Dec. 2021, Tebessa, Algeria
- "Ennour" To search, interpret and translate verses of the Holy Quran including recitation (avec Benlaharche Keltoum)
5th International Conference on Islamic Applications in Computer Science And Technology, 26-29Dec 2017, Indonesia (Téléchargement)
- Exploring Graph bushy paths to improve statistical
multilingual automatic text summarization (Avec Abdelkrime Aries et Walid Khaled
Hidouci)
CIIA 2018 : 6th IFIP International Conference on Computer Intelligence and Its
Applications
MAY 8-10, 2018, ORAN, ALGERIA
- One-step clustering protocol for periodic
tracwireless sensor networks (Avec Nassima Merabtine, Djamel Djenouri, Elseddik
Lamini, Rima Bellal, Imene Ghaoui, Nabila Dahlal )
26th Wireless and Optical Communications Conference. Newark, NJ, USA. April
2017. N
- Toward spatial images analysis by sectioning : First
approach (Avec Mohamed Gougache)
International Conference on Business Intelligence & Applications - ICBIA
2016
- AVL and red-black tree as a single balanced tree (Avec Lynda Bounif)
International Conference on Advances in Computing, Communication and
Information Technology - CCIT 2016
- New Multi-level Clustering Protocol based on PBST Method for Wireless Sensors
Networks (Avec Nassima Merabtine)
4th International Conference on Control Engineering &Information Technology
(CEIT-2016)
- Red Green Black trees: extension to Red Black trees (Avec Seif-Eddine
Zouana)
9th International Conference on Computer and Electrical Engineering (ICCEE
2016)
- Real-time trending topics detection and description
from Twitter content. (Avec Amina Madani et Omar Boussaid) Social Netw.
Analys. Mining 5(1): 59:1-59:13 (2015)
- AllSummarizer system at MultiLing 2015: Multilingual
single and multi-document summarization (Avec Abdelkrime Aries et Khaled
Walid Hidouci), SIGDIAL 2015:16th Annual SIGdial Meeting on Discourse and
Dialogue , Prague, September 2015
- What�s Happening: A Survey of Tweets Event Detection (Avec Amina Madani et Omar Boussaid)
The Third International Conference on Communications, Computation, Networks and
Technologies, INNOV 2014, October 12 - 16, 2014 - Nice, France
- PBST*-based Hierarchical Protocol for Wireless Sensors Networks
(Avec
Nassima Merabtine et Djamel Djenouri )
JDI�2014: les 4eme Journées Doctorale en Informatique, Guelma. 03/12/2014.
- Stockage distribué de données dans les réseaux de capteurs sans fil (Avec
Amina Chikhaoui et Walid-Khaled Hidouci ) 2nd International Conference on New
Technologies and Communication (ICNTC), Chlef, Mars 2014
- Semi-structured Documents Mining: A Review and
Comparison (Avec Amina Madani et Omar Boussaid)
KES 2013: 330-339, Japan
- A Layered Multidimensional Model of Complex Objects (avec Doulkifli Boukra�, Omar Boussa�d et Fadila Bentayeb)CAISE, June 17-21 2013, Valencia, Spain (2013: 498-513)
- Managing a fragmented XML data cube with oracle and
timesten (AvecDoulkifli Boukraa, Omar
Boussaid, Fadila Bentayeb), CIKM'12 21st
ACM International Conference on Information and Knowledge Management
Maui, HI, USA � October 29 - November 02, 2012
- Clust-XPaths: Clustering of XML Paths
(Avec Amina Madani et Omar Boussaid)
MLDM 2011: 294-305
- PBST*: une nouvelle variante de SDDS ( Avec Chikhaoui Amina et Hidouci Walid-Khaled
)
Rencontres sur la recherche en Informatique (RI2) Tizi ouzou 12-14 juin 2011
- Towards Dynamic Data Placement in
Grid
( Avec Chikhaoui Amina et Hidouci Walid-Khaled )
First internationalconference on information systems and
technologies (ICIST)
24, 25 and 26 of April 2011, Tebessa
-
Distribution de données selon la méthode PBST* sur les grilles informatiques
( Avec Chikhaoui Amina et Hidouci Walid-Khaled
). 2ème Doctoriales STIC�11. Tébessa, 20-21 avril 2011. Algérie.
-
Fast order keys preserving scalable distributed data structure
( Avec M. Aridj)
First International Conference on 'Networked Digital
Technologies' VSB-Technical University of Ostrava, Czech Republic July 28 31, 2009
- HD*: Une nouvelle structure de données distribuée et scalable ordonée( Avec M. Aridj) Conférence Internationale des Technologies de l�Information et de la Communication CITIC�2009 du 4 au 5 Mai 2009, Sétif
- Mobile Client for scalable distributed compact trie hashing (avec A. BENNACEUR et W.K HIDOUCI)
International Conference on Software Engineering and Data Engineering ( Sede 2008) , june 30 - july 2, 2008, Los Angeles, California, USA
- A new multi-attributes access method for voluminous files ( Avec M. Aridj) .2005 International Symposium on Performance Evaluation of Computer and Telecommunication Systems (SPECTS'05) / July 24-28, 2005, Philadelphia, USA
- A
new method for the GOTO's elimination ( Avec B. ABBASSI )
International Conference on Algorithms, Scientific Computing, Modelling and
Simulation (ASCOMS'04), Caucun, Mexico, May 12-15, 2004
- Actors oriented databases ( Avec W.K Hidouci ) SEPAD 2004 3rd WSEAS International Conferenc on Software engineering, parallel and distributed systems. Salzburg, Austria, February 13-15, 2004
- Architecture Client Serveur pour la SDDS IH, ( Avec
D. BOUKHELEF)
Journées Internationales d'Informatique pour l'Entreprise, JIE�02. Université de Blida (Algérie) 04-06 octobre 2004.
- Adaptation of Trie Hashing for distributed environments. WDAS 2003. Workshop on Distributed Data structures. Greece 13/14 June 2003
- IH* : Hachage Linéaire Multidimensionnel Distribué et Scalable. CARI 2002. Cameroun - 14 - 17 October. 6ième Colloque Africain sur la recherche en informatique.
- HI* : a new hash-based multidimensional access. WDAS 2002. Workshop on Distributed Data structures. Paris 21-22 -23 mars 2002.
- Un SGBD Objet par acteur .WDAS 2002. Workshop on Distributed Data structures. Paris 21-22 -23 mars 2002
-
Scalable Distributed Compact Trie
Hashing. WDAS 2002 Workshop on Distributed Data structures. Session démo. Paris 21-22 -23 mars 2002
-Comparison of B-trees and trie hashing for multidimensional access. 4th Maghrebian conference on software technology and artificial intelligence
-Multilevel Trie
Hashing,
International conference on databases, EDBT'88,
REVUES
Partitioned Binary Search Trees (P(h)-BST): A Data Structure for Computer RAM
Data Science with Semantic Technologies: Theory, Practice, and Application // Chapitre 6
Print ISBN:9781119864981 |Online ISBN:9781119865339 |DOI:10.1002/9781119865339, 2022
- A revisited representation of the Red-black tree (Avec Lynda Bounif)
Int. J. Comput. Aided Eng. Technol. 16(1): 95-118 (2022)
-
Towards Energy Efficient Clustering in Wireless Sensor Networks: A
Comprehensive Review (Avec Nassima Merabtine et Djamel Djenouri)
IEEE Access 9: 92688-92705 (2021)
- Graph-based cumulative score using statistical features for multilingual automatic text summarisation (Avec Abdelkrime Aries et Walid-Khaled Hidouci)
Int. J. Data Min. Model. Manag. 13(1/2): 37-64 (2021)
- Semantic query for Quranic ontology. J. King Saud Univ (Avec Faiza Beirade et Hamid Azzoune)
Comput. Inf. Sci. 33(6): 753-760 (2021)
- Towards Optimized One-Step Clustering Approach in Wireless Sensor Networks (Avec Nassima Merabtine, Djamel Djenouri, Adel Bounnssairi et Khaled Rahmani)
Wirel. Pers. Commun. 120(2): 1501-1523 (2021)
- Toward a Unique Representation for AVL and Red-Black Trees (avec Lynda
Bounif)
Computaci�n y Sistemas 23(2): 435-450 (2019)
- Partitioned Binary Search Trees: A Generalization of Red Black Trees (avec
Seyfeddine Zouana)
Computaci�n y Sistemas 23(4) (2019)
- Balanced clustering approach with energy prediction and round-time
adaptation in wireless sensor networks (avec Nassima Merabtine, Djamel
Djenouri, Billel Boumessaidia, Abdelghani Boutahraoui)
IJCNDS 22(3): 245-274 (2019)
- Automatic text summarization: What has been done and what
has to be done( avec Abdelkrime Aries, Walid-Khaled Hidouci)
CoRR abs/1904.00688 (2019)
- "ENNOUR" To search, interpret and translate verses of the Holy Quran including recitation (Avec Benlaharche Keltoum)
International Journal on Islamic Applications in Computer Science And Technology, Vol. 6, Issue 4, December 2018, 01-1 (Téléchargement )
- Red Green Black Trees: Extension to Red Black
Trees (avec Seif Eddine Zouana)
Journal of Computers, Volume 13, Number 4, April 2018
- AVL and Red-Black tree as a single balanced tree (Avec Lynda Bounif)
International Journal of Advances in Computer Science &
Its Applications. Volume 6 : Issue 2 [ISSN 2250-3765] Publication Date : 31
August, 2016
- New Information in Trending Topics of Tweets by Labelled Clusters. (Avec Amina Madani et Omar Boussaid)
JIKM 14(3) (2015)
- Semi-structured Documents Mining: A
Review and Comparison (Avec Amina Madani et Omar Boussaid)
Procedia Computer Science 22 ( 2013 ) 330 � 339, ScienceDirect, Elsevier
- A Layered Multidimensional Model of Complex Objects (Avec Doulkifli Boukraa, Omar Boussaid, Fadila Bentayeb)
LNCS Series, Springer-Verlag 2013
- Managing a fragmented XML data cube with oracle and timesten (Avec Doulkifli Boukraa, Omar Boussaid, Fadila Bentayeb), ACM Digital Library :Proceeding DOLAP '12 Proceedings of the fifteenth international workshop on Data warehousing and OLAP, Pages 97-104
- TH*:Scalable Distributed Trie Hashing (Avec Aridj Mohamed), CoRR abs/1205.0439 (2012)
- Modèle multidimensionnel d'objets complexes, du modèle d'objets aux cubes complexes (AvecDoulkifli Boukraa, Omar Boussaid, Fadila Bentayeb), Revue des Sciences et Technologie de l�Information (RSTI-ISI), vol. 16(6), 2011, pp. 41-65
-
Using Actors to Build a Parallel DBMS
( Avec Waled-Khaled
Hidouci)
JCIT 19(2): 71-82 (2011)
- TH*: Scalable Distributed Trie Hashing ( Avec M. Aridj)
International Journal of Computer Science Issues. Published in Volume 7, Issue 6, pp 109-115, November 2010
-Towards a complete scalable distributed data structure
( Avec W.K Hidouci )
IJIS : international journal of information studies.
pp182-191. ISSN 1911-6414 (Online)/ 2009
http://www.istudies.net/ojs/index.php/journal/article/view/49/55
- An actor like data model for a parallel DBMS ( Avec W.K Hidouci). Journal of Digital Management Vol6. Issue3. June2008.
- ACT21: a Parallel Main Memory Databases System( Avec W.K Hidouci ) International Journal of Computing & Information Sciences. 2007
-
ECOLE :
a pedagogical environment for non procedural languages
-Actors oriented databases ( Avec W.K Hidouci ), WSEAS Transactions in computer. 2004
-Scalable Distributed Compact Trie Hashing - IST : Information Software Technology. Elseiver. 2004
-Adaptation of trie hashing for distributed environments - Carleton Scientific - Canada, 2004
- An Arabic environment for learning programming with the Z Language ( Avec T. Zerrouki). Review of Computer Science Research . Federation of Arab Scientific Research Councils. Baghdad, Iraq (In Arabic), 2002
-CONCORD, an environment of construction,
correction and transformation of algorithms (Avec G. Lévy et W. Litwin). IST ( Information Software Technology), 1997
-Trie hashing with the sequential representations of the trie. (Avec W. Litwin) International Review of advanced technologies, 1995
LIVRES
- Réalisation d'un compilateur pédagogique
- Khawarizm : Apprendre l'algorithmique via le langage ZEI ( EN ARABE)
THESES
écriture d'un compilateur pédagogique, Mémoire d'ingénieur d'état en informatique, Alger, 1980. |
Il s'agit de l'écriture d'un compilateur pédagogique pour l'enseignement. La manière dont il est réalisé c'est a dire la méthode d'analyse syntaxique choisie, l'inclusion des actions sémantiques, le principe de traitement des erreurs et d'une façon générale sa décomposition en plusieurs fonctions est liée à l'optique assignée à savoir pouvoir l'utiliser pour l'enseignement. Un langage simple a été choisi couvrant certaines notions de base de compilation telles que compilation séparée, bloc, récursivité, appel, déclarations; etc.
Le compilateur développé constitue un projet de base sur lequel prendront naissance d'autres projets. Par exemple, on s'intéressera à l'efficacité, du compilateur écrit, à son optimisation, à l'extension du langage, à l'emploi d'autres méthodes syntaxiques, etc. Le travail initial consiste, à générer uniquement la forme intermédiaire. Afin de tester notre compilateur, un générateur du langage d'assemblage a aussi été développé pour utiliser l'assembleur existant et prouver ainsi que notre compilateur est correct.
Extensions du hachage digital : Hachage digital compact, Hachage digital multi niveaux, Thèse de doctorat, Université Paris Dauphine, France, 1988. |
Le hachage digital, conçu en 1981, est une nouvelle technique d'accès aux fichiers ordonnés mono-clés et dynamiques. La méthode est basée sur le concept du hachage dynamique. Son facteur de chargement est de l'ordre de 70%. En plus, un accès disque suffit au plus pour retrouver tout article pouvant appartenir à un fichier de quelques millions d'articles.
Cette thèse propose deux extensions du hachage digital :
- l' une, appelée hachage digital multi niveaux, consiste à segmenter la fonction d'accès - arbre digital - en pages sur le disque. Deux accès disque suffisent alors de retrouver tout article, même dans les fichiers les plus larges.
- l' autre, appelée hachage digital avec représentations séquentielles, consiste à donner des représentations mémoire très concises de l'arbre digital. On peut alors doubler la taille du fichier tout en maintenant les performances d'accès et de chargement de la mémoire du hachage digital, sauf que les algorithmes sont moins rapides.
En anglais
Trie hashing, designed in 1981, is a new access method to primary key ordered dynamic files. The method is based on the concept of dynamic hashing. His load factor is about 70%. Further, key search needs at most one disk access in files of a few millions of records.
These thesis proposes two extensions of trie hashing :
- the one, called multilevel trie hashing, consists in segmenting the access function - trie - in pages on the disk . Two disk access usually suffice for a key search in even very large files.
- the other, called trie hashing with sequential representations, consists in giving a few compact memory representations of the trie. We can then double the file size with the same access and load performances of trie hashing, except the algorithms are less fast.
CONFERENCES
Multilevel Trie Hashing, International conference on databases, EDBT'88, Venice (Italy) (1988) |
Trie hashing is one of the fastest access methods to primary key ordered dynamic files. The key address is computed through a trie usually in core. Key search needs then at most one disk access. For very large files, trie size may however become prohibitive. We present an extension of the method, where the trie is split into subtries stored each in a page on the disk. Address computation requires the core for a single page. Two disk accesses may suffice for any key search in a Gbyte files.
Comparison of B-trees and trie hashing for multidimensional access. 4th Maghrebian conference on software technology and artificial intelligence (1996). |
With the apparition of dynamic hashing, a multitude of
access methods has submerged. These methods have been conceived for multiple keys as well
as for monokey access. In addition they give good performance searching time. In this
paper, we have analyzed, mainly by simulation, two methods in a multiple attributes
environment in order to compare them : multidimensional B-trees (MBT) proposed by M.
OUKSEL and P. SCHEUERMANN [Ouk81,Sch82] and multidimensional trie hashing (MTH) conceived
by E.J. OTOO [Oto87]. The most significant results were 1- The access performance for exact, partial and range queries defined on MTH are better than those defined on the MBT method.
2- The average costs of MTH insertion�s and deletion�s are better than the MBT one�s.
3- The load factor is lower for MTH since it is about 40%
Key Words : Access method, Dynamic hashing, Trie hashing, B-trees, Multidimensional access.
Scalable Distributed Compact Trie Hashing. WDAS 2002 Workshop on Distributed Data structures. Session démo. Paris 21-22 -23 mars 2002 |
CTH* (Distributed Compact Trie Hashing) est une structure de fichiers conçue spécialement pour les environnements distribués. CTH* est caractérisée (1) par la scalabilté, c'est à dire la distribution du fichier sur plusieurs serveurs, (2) par l'absence d'un serveur maître et (3) par le fait que les clients ne se connaissent pas, interdisant ainsi tout dialogue entre eux. Contrairement à la plupart des méthodes existantes, CTH* préserve l'ordre des articles et supporte bien les opérations de requêtes à intervalle.
Un programme de démo a été développé montrant un ensemble de clients autonomes effectuant des opérations sur un fichier rangé sur plusieurs serveurs. Chaque client possède une fonction d'accès aux données du fichier matérialisée par un arbre compact. Comme cette fonction (représenté par un arbre binaire compact car dynamique) ne montre qu'une vue partielle du fichier, des erreurs d'adressage peuvent donc apparaître. La démo montre les états des clients et des serveurs après l'insertion d'un ensemble d'articles par les clients. Elle montre le mécanisme d'évolution des fonctions d'accès des clients et les états des serveurs. Elle fournit également des statistiques sur la méthode.
Un SGBD Objet par acteur .WDAS 2002. Workshop on Distributed Data structures. Paris 21-22 -23 mars 2002 |
En programmation, les langages par acteurs sont orientés vers le traitement parallèle et le développement de systèmes ouverts. Ce sont des langages objets assez proches du paradigme populaire de la programmation objet par classe. Dans ce modèle, une application est un ensemble d'entités autonomes (les acteurs) communiquant entre elles de manière asynchrone afin d'atteindre un but commun. L'idée dans cet article consiste à intégrer les techniques de la programmation par acteurs, les nouvelles structures de données distribuées et les bases de données objets.
Le résultat serait alors un nouveau type de SGBD parallèle pour multi-ordinateur o� le modèle de données combine les objets usuels (approche par classes) et les acteurs. Son système de stockage utilise de nouvelles structures de données distribuées permettant ainsi de répartir les données et opérations qui les manipulent sur les différents n�uds du réseau.
Avec un tel SGBD on pourra développer des applications base de données en utilisant le paradigme de la programmation par acteur, bien adapté aux systèmes parallèles. Une base de données serait alors composée d'un ensemble d'acteurs détenant chacun une partie de la connaissance et coopérant à travers des échanges de messages pour répondre aux requêtes utilisateurs ou aux programmes d'applications.
HI* : a new hash-based multidimensional access. WDAS 2002. Workshop on Distributed Data structures. Paris 21-22 -23 mars 2002. |
Classic one-dimensional data structures are very important. Nevertheless, the new data management systems (CAD, Web,..) need new access methods that support efficiently spatial operations on multi-attributes (multidimensional ) data files. Scalable Distributed Data Structures (SDDS) is a new class of data structures conceived specially for multicomputers: collection of PCs and workstations interconnected by a high speed network (Ethernet, ATM, Token Ring,...).
Data of an SDDS are stored in the distributed memory of a multicomputer; which permits to implement large files and allows a very fast access time to the data comparatively to those stored on physical discs. These characteristics give the SDDS processing performances considerably higher than those of classic data structures. Nowadays, several SDDS are developed such as: LH* (extension of LH to distributed environments), RP* (scalable distributed version of the B-trees ); k-RP* (multi-attributes RP*); k-DRT, � The SDDS presented in this paper named IH*, is the first scalable distributed data structure based on multidimensional linear hashing (IH). IH* constitutes an extension of the interpolation-based hashing of Burkhard to distributed environments and also, an introduction of the order and spatial aspects to Litwin's SDDS LH* [LNS96]. Its main objective is to provide a scalable distributed multi-attributes file which preserves the order of records. An IH* file can start on a single machine (server) and extends dynamically through insertion over an infinite number of machines. This file is accessed simultaneously by several clients distributed on the multicomputer. IH* supports the simple and spatial operations (insert, delete) and manages efficiently exact and partial match queries.
IH* : Hachage Linéaire Multidimensionnel Distribué et Scalable CARI 2002. Cameroun - 14 - 17 October. 6ième Colloque Africain sur la recherche en informatique. |
Les nouvelles applications informatiques (CAO, Web, �) manipulent de plus en plus de grandes quantités de données spatiales. Devant cette tendance, les nouveaux systèmes de gestion de bases de données nécessitent une nouvelle classe de structures de données permettant une distribution efficace des fichiers multi-attributs et volumineux. Cette nouvelle classe, apparue cette dernière décennie, est connue sous le nom SDDS (Structures de Données Distribuées et Scalables). Dans cet article, nous présentons une nouvelle structure de données multidimensionnelle distribuée et scalable nommée IH* (Interpollation Hashing star) conçue spécifiquement pour ce but. Comme d'autres SDDS, IH* profite avant toute chose des capacités des multi-ordinateurs (cumul des RAMs et traitement parallèle).
La méthode proposée est considérée comme une extension de
LH* (Linear Hashing) de
W. Litwin dans laquelle l'ordre des articles est préservé et le multi-attribut est possible.
IH* peut aussi être vue comme une adaptation de IH de Burkhard pour un environnement distribué.
Nous montrerons que IH* gère mieux les requêtes à intervalle par rapport au schéma
LH* du fait que IH* réduit considérablement le nombre de serveurs explorés.
Adaptation of Trie Hashing.for distributed environments. WDAS 2003. Workshop on Distributed Data structures. Greece 13/14 June 2003 |
This last decade a new class of data structures, named Scalable Distributed Data Structures (SDDS), was born totally devoted for the multi computers. They are based on client/server architecture. The following properties characterize the SDDS :- Distribution of the file buckets on the servers, - No a main server, - No dialogue between the clients. Each client owns usually an image of the file. The clients can make addressing errors. The client image is updated gradually until obtaining the real image. They are updated using messages called Image Adjustment Messages (IAMs).
The
question in this paper is to distribute the well known method Trie hashing
relatively to the properties of SDDS. The results obtained show that the new scheme is promising for the
following reasons: - Order-preserving, - Practically without multicast, -Three
bytes are sufficient to address a server, - The transfer of some bytes is enough for the updating of trees on
the level to the clients.
Actors oriented databases , SEPAD 2004 3rd WSEAS International Conference on Software engineering, parallel and distributed systems. Salzburg, Austria, February 13-15, 2004 |
- We present in this paper the new concept of "actor databases" (DB-Act) being studied at the INI institute (Act21 project) where we are developing a parallel DBMS based on an actor like data model. To achieve data distribution we use a Scalable Distributed Data Structures (SDDS) called "distributed Compact Trie Hashing" (CTH*) currently in development at the same project.
Processing distribution is made through actors (dynamic autonomous objects) implemented with the PVM (Parallel Virtual Machine) library. A database is then a collection of actors that maintain and manage data over a multi-computer and collaborate with each other to evaluate user queries and application programs.
A new method for the GOTO's elimination , International Conference on Algorithms, Scientific Computing, Modelling and Simulation (ASCOMS'04), Caucun, Mexico, May 12-15, 2004 |
We suggest in this paper a new method of algorithm's structuration. We will first show how to move from any B-algorithm (algorithm with GOTO) to an automate expressed by its transition matrix. Then, we will show how to associate a D-algorithm ( algorithm without GOTO ) to this transition matrix. The proposed method leads to very readable algorithms and shows explicitly the semantic of the original B-algorithm compared to the existing methods.
A TELECHARGER
Multidimensional trie hashing (MTH) access method is an extension of the trie hashing for multikey dynamic
files (or databases). Its formulation consists in maintaining in main memory (d) separated tries, every
one indexes an attribute. The data file represents an array of dimension (d), orderly in a linear way on the
disk. The
correspondence between the physical addresses and indexes resulting of the application of the tries is achieved
by the mapping function. In average, a record may be found in one disk access, what ranks the method among
the most efficient known. The inconvenient of MTH is double :a weak occupancy of file buckets (40-50%) and an
increasing of memory space according to the file size (tries in memory). We propose a refinement of MTH on
two levels. First, by using of the compact representations of tries suggested in [6], then by applying the
phenomenon of delayed splitting ( partial expansion ) as introduced in the first methods of dynamic hashing and
as used in [16]. The analysis of performances of this new scheme, mainly by simulation, shows on the one hand a
high load factor (70-80%) with an access time practically equal to one disk access and on the other hand an
increasing of file size with a factor of two with the same space used by MTH..
A TELECHARGER
Distribution
de données selon la méthode PBST* sur une grille informatique (avec A.
CHIKHAOUI et
W.K HIDOUCI)
2ième Doctoriales STIC�11. Tébessa, 20-21 avril 2011. Algérie. |
Les grilles informatiques impliquent le partage des ressources hétérogènes de
calcul et de stockage à l�échelle planétaire. Récemment, l�utilisation des
infrastructures de grilles a été centrée sur les applications de distribution
des grands volumes de données. Les méthodes de gestion des données modernes ne
reposent plus sur des systèmes centralisés. Pour offrir de meilleurs temps, il
faut appliquer des structures dédiées aux environnements distribués. PBST* (Distributed
Partitioned Binary Search Tree) est une structure de données arborescente dédiée
aux environnements distribués. Cette méthode se caractérise particulièrement par
le partitionnement dynamique de données en vue de les distribuer sur plusieurs
ressources informatiques et de les traiter en parallèle. Dans cet article, nous
proposons un protocole de distribution de données selon PBST* pour le placement
de données sur les grilles.
A TELECHARGER
Towards Dynamic Data Placement in Grid (avec A. CHIKHAOUI et W.K HIDOUCI) First internationalconference on
information systems and technologies (ICIST) |
Grid computing involves sharing heterogeneous calculation and storage resources. Recently, the use of grid infrastructure has been focused on applications of distribution of large volumes of data. The modern methods of data management are no longer based on centralized systems. To provide better time of research, we must apply structures dedicated to distributed environments. PBST*(Distributed Partitioned Binary Search Tree) is variant of SDDS (Scalable Distributed Data Structure).It is a tree data structure dedicated to distributed environments. This method is particularly characterized by the dynamic partitioning of data in the offing to distribute it on multiple storage resources and to treat it in parallel. In this paper, we propose a protocol for data distribution according PBST* for data placement on grids.
A TELECHARGER
REVUES
-
Semi-structured Documents Mining: A
Review and Comparison. |
The number of semi-structured
documents that is produced is steadily increasing. Thus, it will be essential
for discovering new knowledge from them. In this survey paper, we review popular
semi-structured documents mining approaches (structure alone and both structure
and content). We provide a brief description of each technique as well as
efficient algorithms for implementing the technique and comparing them using
different comparison criteria.
Keywords:
Semi-structured documents; documents mining; clustering; association;
classification; structure mining; content mining
A TELECHARGER
Trie hashing with the sequential representations of the trie. International Review of advanced technologies, Algiers (1995) |
Trie hashing is one of the fastest methods for accessing data on the disk. As long as the trie is in core, any key search takes at most one disk access. The trie size depends linearly on the file size and on the representation chosen for the trie. The representation considered until now was called standard representation. We propose two representations that are about two times more compact. The same buffer in core, suffice then for about two times larger file. The price is that the algorithmic is more complex and needs more processing time.
KEY WORDS : Algorithms, Data structures, File structures, B-trees, Hashing, Dynamic hashing.
CONCORD, an environment of construction, correction and transformation of algorithms. IST ( Information Software Technology), Elseiver (1997) |
We introduce in this paper an environment for writing, automatically proving and transforming algorithms. The environment is baptized "CONCORD" and constitutes a synthesis on procedural languages. We consider many types of construction : from flowcharts, well-known of yesteryear, to structured algorithms. CONCORD allows all the transformations and different methods of proofs thanks to debuggers, symbolic evaluators and automatic provers which we are developed. The objective of CONCORD is above all pedagogical, since it gets right to the bottom of the procedural programming.
Keywords : Algorithm, Automaton, Proof, Symbolic evaluation, Transformation, Compiler.
Work supported by the Ministry of the research of Algiers under the research project entitled "CONCORD".
Khawarizm : An Arabic environment for learning programming with the Z Language. Review of computer science Research. Federation of Arab Scientific Councils. Baghdad, Iraq. / 2002 |
سنعرض في مقالنا هذا بيئة خوارزم العربية المهيأة لتعليم المبتدئين أوليات البرمجة باستعمال لغة خوارزمية عربية تسمى لغة زاي، في بيئة مزودة بأدوات مساعدة منها المحرر و المنفذ و المحاكي و القاموس و مساعد موّثَق للترجمة إلى باسكال . وميزة هذه اللغة استعمال آلات مجردة لكتابة خوارزميات .الذاكرةجردة تُغني المبرمج عن الإلمام بالأجهزة و خاصة ا |
We propose in this paper an arabic environment, baptized KHAWARIZM, allowing to write algorithms with an arabic algorithmic language ( Zei language ) , to indent them, to unroll or simulate them and offering all the documentation to translate them to procedural languages PASCAL . The Zei language allows the development of abstract algorithms, i.e. algorithms independently of the memory representation and then renders easy their writing. KHAWARIZM allows the learning the basic of the algorithmic and the main data structures. Thanks to its integrated simulator, it intends to do the assisted conception of algorithms and thanks to its integrated hypertext it helps the user to translate algorithms to PASCAL.
Nous proposons dans cet
article un environnement arabe , baptisé KHAWARIZM, offrant la possibilité d'écrire
des algorithmes dans un langage algorithmique arabe (langage Zei), de les
arranger, de les dérouler ou les simuler et de fournir toute la documentation nécessaire
pour les traduire vers les langages de programmation PASCAL. Le langage Zei
permet l�écriture des algorithmes abstraits, c�est à dire des algorithmes
indépendants, de toute représentation mémoire et facilite ainsi leur écriture.
KHAWARIZM permet l�apprentissage des bases de l'algorithmique et les
principales structures de données. Gr�ce à son simulateur intégré, il vise
la conception assistée des algorithmes et gr�ce à son hyper-texte intégré
il assiste aussi l'utilisateur pour traduire son algorithme en PASCAL.
Mots clé : algorithmique, initiation , la langue arabe, machines abstraites
A TELECHARGER
Adaptation of trie hashing for distributed environments, Proceeding in Informatics, Careleton Scientifque, Canada, 2004 |
This last decade a new class of data structures, named Scalable Distributed Data Structures (SDDS), was born totally devoted for the multi computers. They are based on client/server architecture. The following properties characterize the SDDS :- Distribution of the file buckets on the servers, - No a main server, - No dialogue between the clients. Each client owns usually an image of the file. The clients can make addressing errors. The client image is updated gradually until obtaining the real image. They are updated using messages called Image Adjustment Messages (IAMs).
The
question in this paper is to distribute the well known method Trie hashing
relatively to the properties of
SDDS. The results obtained show that the new scheme is promising for the
following reasons: - Order-preserving, - Practically without multicast, -Three
bytes are sufficient to address a
server, - The transfer of some bytes is enough for the updating of trees on the level to the clients.
"Scalable Distributed Compact Trie Hashing" ( CTH*) IST : Information Software Technology. Elseiver. 2004 |
This last decade, a new class of data structures named Scalable Distributed Data Structures (SDDSs), is appeared completely dedicated to a distributed environment. This type of data structures opened an important axis of research, considering that the data management in a transparent manner is fundamental in a computer network.
All the existing methods are mainly based on Linear hashing (LH*) and Range-partitioning (RP*). In this paper, we propose a new method with the constraints of the SDDS. Our approach is an adaptation of the well known method Trie hashing(TH) for a distributed environment, i.e., a network of interconnected computers. The latter uses a digital tree (trie) as access function. Our major objective is the distribution of file buckets and the tree representing the hashing function. We have considered TH with the tree represented in compact form (CTH) because this option is probably more interesting for the reduction of the message size circulating on the network. Contrary to the majority of the existing methods, the proposed one provides the order of distributed files, then facilitates both the range query operations and the ordered traversal of files. Moreover, the following properties make our method a promising opening towards a new class of SDDS :
- preservation of the order of records,
- works without multicast
- three bytes are sufficient to address a server,
- the transfer of some bytes is enough for the update of the client trees.
The access performances should exceed the ones of traditional files and some competitive scalable and distributed data structures.
A TELECHARGER
Actors oriented databases , WSEAS Transactions in computer, 2004 |
-
We present in this paper the new concept of "actor databases" (DB-Act) being studied at the INI institute (Act21 project) where we are developing a parallel DBMS based on an actor like data model. To achieve data distribution we use a Scalable Distributed Data Structures (SDDS) called "distributed Compact Trie Hashing" (CTH*) currently in development at the same project.Processing distribution is made through actors (dynamic autonomous objects) implemented with the PVM (Parallel Virtual Machine) library. A database is then a collection of actors that maintain and manage data over a multi-computer and collaborate with each other to evaluate user queries and application programs.
ECOLE : a pedagogical environment for non procedural languages. Journal of Computer Science and Technology. 2006 |
The work described in this paper is related to
three areas in the programming world : logic, functional and object programming.
The main objective is essentially pedagogical since it is question here to make
a synthesis on non procedural languages. To achieve this, we have considered
many construction types, each one represents the one of evoked programming. Many
fully-documented environments have been developed for writing constructions of
any type, transforming them in order to evaluate them by showing the work really
accomplished in the least detail.
Act21:
a Parallel Main Memory Databases System. International Journal of Computing & Information Sciences. 2006 |
We present in this paper the
new concept of �actor databases� (DB-Act) being studied at the INI institute
(Act21 project) where we are developing a parallel main memory database system
based on an actor like data model. To achieve data distribution we use a
Scalable Distributed Data Structures (SDDS) called �distributed Compact Trie
Hashing� (CTH*) currently in development at the same project.
Transaction management and
recovery techniques are adapted for the combination of actors and SDDS in Act21.
An adaptation of the nested transaction model to the actor paradigm is presented,
as well as a recovery techniques using a fuzzy checkpointing tailored to the
SDDS needs.
An actor like data model for a parallel DBMS (Avec W.K Hidouci). Journal of Digital Management Vol6. Issue3. June2008. |
We present in this
paper the new concept of �actor databases� (DB-Act) being studied at the INI
institute (Act21 project) where we are developing a parallel main memory
database system based on an actor like data model. To achieve data distribution
we use a Scalable Distributed Data Structures (SDDS) called �distributed
Compact Trie Hashing� (CTH*) currently in development at the same project.
Transaction management
and recovery techniques are adapted for the combination of actors and SDDS in
Act21. An adaptation of the nested transaction model to the actor paradigm is
presented, as well as a recovery techniques using a fuzzy checkpointing tailored
to the SDDS needs.
Using Actors to Build a Parallel DBMS ( Avec W.K Hidouci
) JCIT 19(2): 71-82 (2011) |
In this paper, we present the
design and the architecture
of a parallel main memory database management
system. We focus on concurrency control scheme and
recovery. Our prototype is based on the concept of
�database actors�, an object-oriented data model well
suited for parallelmanipulations. The storage sub system
is built upon distributed Ram-files using SDDS (Scalable
Distributed Data Structures) techniques. A nested transaction
model is proposed and used to handle concurrency
access and recovery. We have also proposed novel
approach, based on wait-die, to implement a distributed
deadlock prevention technique for our model of nested
transactions.
RéSUMé. La modélisation multidimensionnelle est aujourd�hui reconnue comme reflétant le mieux la vision des décideurs sur les données à analyser. Cependant, les modèles multidimensionnels classiques ont été pensés pour traiter des données numériques ou symboliques mais échouent dès lors qu�il s�agit de données complexes. Les opérateurs d�analyse en ligne (OLAP) classiques sont alors à redéfinir dans le cadre de données complexes, voire d�autres sont à créer. Dans cet article, nous définissons un modèle multidimensionnel d�objets complexes. Nous proposons également un opérateur OLAP pour la construction de cubes d�objets complexes à partir du modèle multidimensionnel.
ABSTRACT. Nowadays, multidimensional modeling is recognized to best reflect the decision makers� analytical view of data. However, the classical multidimensional models were meant to handle numerical or symbolic data but they fail regarding complex data. Particularly, the classical OLAP operators are to be redefined or new ones will be created in the context of complex data. In this paper, we define a multidimensional model of complex objects. We also propose an OLAP operator in order to construct cubes of complex objects from the multidimensional model.
A TELECHARGER
TH*: Scalable Distributed Trie Hashing( Avec
M. Aridj
)
International Journal of Computer Science
Issues |
In today�s world of
computers, dealing with huge amounts of
data is not unusual. The need to distribute this data in order to
increase its availability and increase the performance of
accessing it is more urgent than ever. For these reasons it is
necessary to develop scalable distributed data structures.
In this paper we propose a TH* distributed variant of the Trie
Hashing data structure. First we propose Thsw new version of
TH without node Nil in digital tree (trie), then this version will
be adapted to multicomputer environment. The simulation results
reveal that TH* is scalable in the sense that it grows gracefully,
one bucket at a time, to a large number of servers, also TH*
offers a good storage space utilization and high query efficiency
special for ordering operations.
A TELECHARGER
Towards a complete scalable distributed data structure ( Avec W.K Hidouci
) IJIS : international journal of information studies. pp182-191. ISSN 1911-6414 (Online)/ 2009 |
In this paper, we describe a scalable distributed data structure (SDDS) with a complete enough environment
offering a set of functions to manage and access information distributed in a computer network. The SDDS model
differentiates
from the other ones by the absence of a central directory. The big asset of the SDDS is the scalability property; that
is, when adding new data servers to handle the growth of data size, the performances don�t deteriorate. The main objective
in this paper is to present a set of works related to CTH*, a SDDS method based on the usage of unicast messages only
(point-to-point connections), in order to obtain a more complete environment at two levels. First, in the internal layer, we
have developed a fl ow controller enhancing reliability of messages passing, and a more effi cacious data organization that
permits high availability when failures occur. Concurrency control and recovery techniques have also been added to provide
transaction management for transactional clients. Second, in the external layer, we have extended the initial CTH* platform
by providing a mobile client that access to data servers via a mobile telephone.
LIVRES
Structures de données et de fichiers. Programmation Pascal et C Edition CHIHAB, Alger (1997) |
Quelles structures de données choisir pour développer des logiciels à moindre coût et facilement maintenables ? tel est l'objectif recherché à travers cet ouvrage.
Ce livre décrit d'une manière très succincte et originale les principales structures de données utilisées dans les mémoires internes et externes des ordinateurs.
On y trouvera les notions de tableaux, de listes linéaires chaînées, d'arbres et de hachage pour le stockage des données aussi bien en mémoire centrale que sur les supports externes.
Deux stratégies très usitées sont décrites et implémentées : les piles et les files d'attente.
La récursivité, un mécanisme puissant pour l'écriture des algorithmes, est également exposée en mettant en évidence sa sémantique.
Enfin, une série d'exercices programmés dans les langages procéduraux PASCAL et C est également fournie.
Ce livre s'adresse à des étudiants ayant déjà une première expérience en programmation. Il est aussi destiné aux ingénieurs et chercheurs, principalement comme un guide pratique.
LIVRES
Structures de données et de fichiers. Recueil de sujets d'examen avec corrigés types |
Ce livre a pour objet :
- La présentation brève des principales structures de données et de fichiers. Comme structures de données on y trouvera les listes linéaires chaînées, les piles, les files d'attente, les arbres, les techniques de hachage. Comme structures de fichiers, on y trouvera les structures simples, les méthodes d'index pour l'accès uni et multidimensionnel, les méthodes d'arbres et de hachage.
- La proposition d'un éventail de sujets d'examens avec des corrigés type portant sur toutes les structures de données et de fichiers évoquées. Ainsi, plus d'une centaine d'algorithmes sont proposés et solutionnés dans un langage algorithmique clair et concis.
Ce livre s'adresse à des étudiants ayant déjà des connaissances en matière de structures de données et de fichiers. Il est aussi destiné aux ingénieurs et chercheurs, principalement comme un guide pratique.
Apprendre et enseigner l'algorithmique (Tome 1) / Cours et annexes Editions universitaires européennes (2013) |
Comprendre progressivement la programmation, maîtriser les algorithmes de base. Tels sont les objectifs recherchés à travers cet ouvrage. Ce livre -en deux tomes- décrit d'une manière très succincte les concepts de base de l'algorithmique et de la programmation. De nombreux algorithmes sont développés sur la machine de Turing permettant de s'expérimenter sur le formalisme algorithmique. Une méthode de conception d'algorithmes qu'est l'analyse descendante est exposée en mettant en évidence ses caractéristiques. On y trouvera également des notions de quelques structures de données élémentaires telles que les tableaux et les listes linéaires chaînées. Une introduction aux fichiers et aux structures de fichiers est également exposée et étoffée de nombreux programmes. Un éventail de sujets d'examens avec des corrigés-type portant sur tous les cours est proposé. Ainsi, plus d'une centaine d'algorithmes sont proposés et solutionnés dans un langage algorithmique clair et concis. Enfin, une série d'exercices programmés en PASCAL est aussi fournie. Ce livre s'adresse à des étudiants désirant s�initier à la programmation. Il est aussi destiné aux enseignants, principalement comme un guide.
Apprendre et enseigner l'algorithmique (Tome 2)/ Sujets d'examen corrigés Exercices programmés en PASCAL Editions universitaires européennes (2013) |
Editions itineraires Scientifiques (2022) |
Par conception de programmes, nous entendons la manière d�aborder et
de résoudre un problème donné. Diverses manières sont présentées: la
technique �diviser pour résoudre�, la programmation dynamique, la
recherche systématique de solutions avec les parcours en profondeur
connus sous le terme �Backtracking� ou les parcours en largeur, la
recherche avec des heuristiques quand le graphe de solutions est
exponentiel.
L�intelligence artificielle est également introduite. La technique du
Min-Max est alors présentée montrant comment une machine peut jouer et
gagner un être humain dans les jeux de stratégie. L�algorithme A*, le
plus populaire en intelligence artificielle est aussi exhibé montrant
comment des solutions optimales à des problèmes complexes sont trouvées.
La classification des problèmes liée à la théorie de la complexité est
aussi abordée utilisant le modèle des machines de Turing. Nous nous
focaliserons essentiellement sur les classes des problèmes qui peuvent
être résolus en temps polynomial par une machine de Turing déterministe
(Classe P) et non déterministe (Classe NP). La classe NP-complet, celle
des problèmes les plus difficiles de la classe NP est aussi exposée avec
des exemples de réduction de problèmes.
Ce livre couvre le cours �Conception de programmes� tel qu�il est assuré
à l�école Supérieure d�Informatique(ESI, Alger) pour les étudiants de
graduation. Il rappelle, comme pré-requis, la O-notation et les graphes.
Enfin, une bonne partie de ce livre est consacrée aux exercices avec des
corrigés types.
Editions itineraires Scientifiques (2022) |
Ce livre traite de la construction de programmes montrant les
différents paradigmes de programmation:
- La programmation procédurale aborde les différents schémas, les
transformations entre schémas et les différentes formes de preuve.
- La programmation fonctionnelle introduit le lambda-calcul et sa
machine à réduction. Elle traite aussi des preuves des langages
fonctionnels.
- La programmation logique rappelle la logique des prédicats du premier
ordre et le principe des démonstrateurs automatiques de théorèmes.
- La programmation objet présente les concepts de base et montre leurs
illustrations. Des exemples sont donnés offrant aux utilisateurs des
menus tout préparés prêts à être paramétrés pour les intégrer dans les
applications.
- La spécification exhibe un moyen rigoureux et moderne pour l�écriture
automatique des compilateurs et des systèmes.
LISP(langage fonctionnel) et PROLOG (langage logique) sont introduits
avec des exemples. Les fonctionnements des interpréteurs logiques et
fonctionnels sont également exposés avec des exemples.
Ce livre couvre le cours �Construction de programmes� tel qu�il est
assuré à l�école Supérieure d�Informatique(ESI, Alger) pour les
étudiants de graduation. Il rappelle, comme pré-requis, la théorie du
point fixe et les systèmes formels. Enfin, une bonne partie de ce livre
est consacrée aux exercices avec des corrigés types.
Ce livre montre comment développer un compilateur pour un prototype de langage en passant par toutes ses phases en insistant sur le coté pratique. Il adopte une démarche gloutonne dans le sens o� il expose dans un premier temps un compilateur pour un langage très réduit ne contenant que des déclarations d�entiers, des expressions arithmétiques et des instructions d�affectation, de lecture et d�écriture. Dans un second temps, le compilateur est étendu progressivement jusqu�à la couverture du langage complet. Comme structures de données, le langage est pourvu de tableaux, structures, listes linéaires chaînées, machines de Turing et fichiers. Comme expressions, le langage autorise les expressions arithmétiques, relationnelles, booléennes et chaînes de caractères. Comme instructions, le langage permet l�écriture de programmes structurés avec les boucles �Tantque� et �Pour�, la conditionnelle �Si-Sinon� et toutes les opérations définies sur les structures de données évoquées. De plus, le langage permet la modularité et offre donc les variables globales et paramètres comme moyens de communication entre les modules.
Ce livre fait référence à deux logiciels libres d�utilisation. Le premier fournit un environnement pour expérimenter le langage en question et le second dévoile le fonctionnement interne du compilateur pour le même langage.
Khawarizm: Apprendre l'algorithmique via le langage ZEI (EN ARABE)
( Appel à publication )
Tous droits réservés Il est formellement interdit de publier tout ou partie du livre sans l'autorisation préalable de l'auteur.Abstract:
We propose in this book an Arabic environment, baptized KHAWARIZM, allowing to write algorithms with an Arabic algorithmic language( Zei language ) , to indent them, to unroll or simulate them and offering all the documentation to translate them to the procedural language PASCAL . The Zei language allows the development of abstract algorithms, i.e. algorithms independently of the memory representation and then renders easy their writing. KHAWARIZM allows the learning the basic of the algorithmic and the main data structures. Thanks to its integrated simulator, it intends to do the assisted conception of algorithms and thanks to its integrated hypertext it helps the user to translate algorithms to PASCAL.
Résumé:
Nous proposons dans ce livre un environnement arabe , baptisé KHAWARIZM, offrant la possibilité d'écrire des algorithmes dans un langage algorithmique arabe (langage Zei), de les arranger, de les dérouler ou les simuler et de fournir toute la documentation nécessaire pour les traduire vers le langage de programmation PASCAL. Le langage Zei permet lécriture des algorithmes abstraits, cest à dire des algorithmes indépendants de toute représentation mémoire et facilite ainsi leur écriture. KHAWARIZM permet lapprentissage des bases de l'algorithmique et les principales structures de données. Gr�ce à son simulateur intégré, il vise la conception assistée des algorithmes et gr�ce à son hyper-texte intégré il assiste aussi l'utilisateur pour traduire son algorithme en PASCAL.