L`UNIVERSITE D`ORLEANS

L`UNIVERSITE D`ORLEANS
THESE
presentee a
L'UNIVERSITE D'ORLEANS
pour obtenir le grade de
DOCTEUR EN INFORMATIQUE
par
Daniel Diaz
ETUDE DE LA COMPILATION DES LANGAGES
LOGIQUES DE PROGRAMMATION PAR CONTRAINTES
SUR LES DOMAINES FINIS :
LE SYSTEME clp(FD)
Soutenue le 13 Janvier 1995 devant la Commission d'examen
G. File
J.P. Delahaye
P. van Hentenryck
D.H.D. Warren
F. Benhamou
P. Codognet
P. Deransart
G. Ferrand
::::::::::::
::::::::::::
::::::::::::
::::::::::::
::::::::::::
::::::::::::
::::::::::::
::::::::::::
President
Rapporteur
Rapporteur
Rapporteur
Examinateur
Examinateur
Examinateur
Examinateur
Table des matieres
1 Introduction
1
1.1 Les domaines nis : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : :
2
1.2 Approche RISC versus approche CISC : : : : : : : : : : : : : : : : : : : :
4
1.3 Operation Ask et contraintes conditionnelles : : : : : : : : : : : : : : : : :
6
1.4 Contraintes booleennes : : : : : : : : : : : : : : : : : : : : : : : : : : : : :
7
1.5 Le systeme clp(FD) : : : : : : : : : : : : : : : : : : : : : : : : : : : : : :
8
2 La programmation logique par contraintes
10
2.1 Les systemes de contraintes : : : : : : : : : : : : : : : : : : : : : : : : : :
10
2.2 Le cadre PLC(C ) - syntaxe et semantique : : : : : : : : : : : : : : : : : :
12
2.2.1 Syntaxe des programmes logiques avec contraintes : : : : : : : : : :
12
2.2.2 Semantique des programmes logiques avec contraintes : : : : : : : :
13
2.3 Le cas C =FD : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : :
14
2.3.1 Les domaines nis : : : : : : : : : : : : : : : : : : : : : : : : : : : :
14
2.3.2 La contrainte X
2.3.3 Semantique de X
in
r - syntaxe et intuition : : : : : : : : : : : : : 15
in
r et operation Tell : : : : : : : : : : : : : : : 19
2.3.4 La relation de satisfaction : : : : : : : : : : : : : : : : : : : : : : :
1
22
3 Implantation de wamcc
24
3.1 La machine abstraite de Warren : : : : : : : : : : : : : : : : : : : : : : : :
24
3.1.1 La pile locale (ou de contr^ole) : : : : : : : : : : : : : : : : : : : : :
25
3.1.2 La pile de restauration (ou trail) : : : : : : : : : : : : : : : : : : :
28
3.1.3 La pile globale (ou heap) : : : : : : : : : : : : : : : : : : : : : : : :
29
3.1.4 La representation des termes : : : : : : : : : : : : : : : : : : : : : :
30
3.1.5 Registres : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : :
32
3.1.6 Economie et recuperation memoire : : : : : : : : : : : : : : : : : :
33
3.1.7 Le jeu d'instructions : : : : : : : : : : : : : : : : : : : : : : : : : :
38
3.2 Execution du code WAM : traduction vers C : : : : : : : : : : : : : : : : :
48
3.2.1 Cahier des charges : : : : : : : : : : : : : : : : : : : : : : : : : : :
48
3.2.2 Methodes classiques pour executer la WAM : : : : : : : : : : : : :
49
3.2.3 La solution adoptee : traduire Prolog vers C : : : : : : : : : : : : :
50
3.2.4 Le probleme du contr^ole de Prolog en C : : : : : : : : : : : : : : :
51
3.2.5 La methode Janus : : : : : : : : : : : : : : : : : : : : : : : : : : :
52
3.2.6 La methode KL1 : : : : : : : : : : : : : : : : : : : : : : : : : : : :
53
3.2.7 La methode Erlang : : : : : : : : : : : : : : : : : : : : : : : : : : :
54
3.2.8 La methode wamcc : : : : : : : : : : : : : : : : : : : : : : : : : : :
56
3.3 Caracteristiques de wamcc : : : : : : : : : : : : : : : : : : : : : : : : : : :
61
3.3.1 Processus de compilation : : : : : : : : : : : : : : : : : : : : : : : :
61
3.3.2 Gestion des piles : : : : : : : : : : : : : : : : : : : : : : : : : : : :
62
3.3.3 Fichiers de conguration : : : : : : : : : : : : : : : : : : : : : : : :
63
3.3.4 Gestion de la modularite : : : : : : : : : : : : : : : : : : : : : : : :
65
3.4 Evaluation de wamcc : : : : : : : : : : : : : : : : : : : : : : : : : : : : : :
66
3.4.1 Les fonctionnalites du systeme wamcc : : : : : : : : : : : : : : : : :
67
3.4.2 Le jeu de benchmarks : : : : : : : : : : : : : : : : : : : : : : : : :
68
3.4.3
wamcc
versus des Prolog universitaires : : : : : : : : : : : : : : : :
69
3.4.4
wamcc
versus des Prolog professionnels : : : : : : : : : : : : : : : :
70
4 Implantation de clp(FD)
74
4.1 Extension de la WAM : : : : : : : : : : : : : : : : : : : : : : : : : : : : :
74
4.1.1 Integration des variables domaine : : : : : : : : : : : : : : : : : : :
74
4.1.2 Nouvelles structures de donnees : : : : : : : : : : : : : : : : : : : :
77
4.1.3 Jeu d'instructions : : : : : : : : : : : : : : : : : : : : : : : : : : : :
83
4.1.4 Operation Tell : : : : : : : : : : : : : : : : : : : : : : : : : : : : :
89
4.2 Integration de clp(FD) dans wamcc : : : : : : : : : : : : : : : : : : : : : :
90
4.3 Evaluation de clp(FD) : : : : : : : : : : : : : : : : : : : : : : : : : : : : :
93
4.3.1 Le jeu de benchmarks : : : : : : : : : : : : : : : : : : : : : : : : :
93
4.3.2 Evaluation de l'implantation de base : : : : : : : : : : : : : : : : :
94
4.3.3 Optimisations : : : : : : : : : : : : : : : : : : : : : : : : : : : : : :
95
4.3.4 Evaluation de l'implantation nale : : : : : : : : : : : : : : : : : : 103
5 Contraintes booleennes
107
5.1 Un panorama des resolveurs booleens : : : : : : : : : : : : : : : : : : : : : 108
5.1.1 Methodes basees sur la resolution : : : : : : : : : : : : : : : : : : : 108
5.1.2 Methodes basees sur les diagrammes de decisions binaires (BDD) : 109
5.1.3 Methodes enumeratives : : : : : : : : : : : : : : : : : : : : : : : : : 110
5.1.4 Programmation en nombres entiers 0-1 : : : : : : : : : : : : : : : : 111
5.1.5 Methodes basees sur la propagation. : : : : : : : : : : : : : : : : : 112
5.1.6 PLC versus resolveurs dedies : : : : : : : : : : : : : : : : : : : : : : 112
5.2 Contraintes booleennes : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 113
5.3 Codage des booleens en clp(FD) : clp(B/FD) : : : : : : : : : : : : : : : : 115
5.4 Evaluation des performances de clp(B/FD) : : : : : : : : : : : : : : : : : : 116
5.4.1 Le jeu de benchmarks : : : : : : : : : : : : : : : : : : : : : : : : : 116
5.5
5.4.2
clp(B/FD)
et CHIP : : : : : : : : : : : : : : : : : : : : : : : : : : : 117
5.4.3
clp(B/FD)
et les autres resolveurs : : : : : : : : : : : : : : : : : : : 118
clp(B)
un resolveur dedie pour les booleens : : : : : : : : : : : : : : : : : 121
5.5.1 La contrainte primitive l0
l : : :,ln : : : : : : : : : : : : : : : : 122
<= 1 ,
5.5.2 Denition des contraintes booleennes : : : : : : : : : : : : : : : : : 124
5.5.3 Extension de la WAM : : : : : : : : : : : : : : : : : : : : : : : : : 124
5.5.4 La procedure de consistance : : : : : : : : : : : : : : : : : : : : : : 129
5.5.5 Evaluation de clp(B) : : : : : : : : : : : : : : : : : : : : : : : : : : 132
5.6 Conclusion : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 132
6 Detection de la satisfaction de contraintes
134
6.1 Introduction : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 134
6.2 Approximation 1 : test a la cl^oture : : : : : : : : : : : : : : : : : : : : : : 137
6.3 Approximation 2 : test sur les domaines : : : : : : : : : : : : : : : : : : : 139
6.4 Approximation 3 : test sur les intervalles : : : : : : : : : : : : : : : : : : : 142
6.4.1 Equivalence des conditions susantes : : : : : : : : : : : : : : : : : 145
7 Contraintes complexes
149
7.1 Contraintes arithmetiques lineaires : : : : : : : : : : : : : : : : : : : : : : 149
7.1.1 Normalisation : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 149
7.1.2 Compilation en code inline : : : : : : : : : : : : : : : : : : : : : : : 150
7.1.3 Compilation en appel de sous-contraintes de librairie : : : : : : : : 151
7.2 Operation Ask : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 152
7.2.1 Le probleme des series magiques : : : : : : : : : : : : : : : : : : : : 154
7.2.2 Contrainte atmost : : : : : : : : : : : : : : : : : : : : : : : : : : : 155
7.2.3 Contrainte de cardinalite : : : : : : : : : : : : : : : : : : : : : : : : 155
7.2.4 Contrainte element : : : : : : : : : : : : : : : : : : : : : : : : : : : 156
7.2.5 Contraintes arithmetiques non-lineaires : : : : : : : : : : : : : : : : 156
7.3 Generalisation de la contrainte X
in
r : : : : : : : : : : : : : : : : : : : : 157
7.3.1 Contraintes resolues par full lookahead : : : : : : : : : : : : : : : : 157
7.3.2 Fonctions utilisateurs : : : : : : : : : : : : : : : : : : : : : : : : : : 158
7.4 Disjonction constructive : : : : : : : : : : : : : : : : : : : : : : : : : : : : 162
7.4.1 Un exemple simple : : : : : : : : : : : : : : : : : : : : : : : : : : : 163
7.4.2 \L'union fait la force" : : : : : : : : : : : : : : : : : : : : : : : : : 165
7.4.3 Autres exemples : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 166
7.5 Contraintes denies par des relations : : : : : : : : : : : : : : : : : : : : : 168
8 Regulation du trac aerien avec clp(FD)
170
8.1 Introduction : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 171
8.2 Problem Context : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 173
8.2.1 Air Trac Flow Management Overview : : : : : : : : : : : : : : : : 173
8.2.2 The Slot Allocation Problem : : : : : : : : : : : : : : : : : : : : : : 174
8.3
clp(FD)
in a Nutshell : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 175
8.3.1 The Constraint X
in
r : : : : : : : : : : : : : : : : : : : : : : : : 176
8.3.2 High-Level Constraints and Propagation Mechanism : : : : : : : : : 177
8.3.3 Optimizations : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 178
8.3.4 Performances : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 179
8.3.5
atmos interval
Constraint : : : : : : : : : : : : : : : : : : : : : : 179
8.4 Slot Allocation Satisfying Capacity Constraints : : : : : : : : : : : : : : : 180
8.4.1 A Small Example : : : : : : : : : : : : : : : : : : : : : : : : : : : : 180
8.4.2
clp(FD)
Model : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 180
8.4.3
clp(FD)
Implementation of our Small Example : : : : : : : : : : : 181
8.4.4 Optimization Trials - Heuristics : : : : : : : : : : : : : : : : : : : : 182
8.4.5 Results : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 183
8.4.6 Extension of the Model to Integrate Flow Rate Constraints : : : : : 185
8.4.7 A Simulation Aid Tool for Regulators - Cost estimation of Regulation
Plans : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 187
8.5 Conclusion and Further Works : : : : : : : : : : : : : : : : : : : : : : : : : 187
9 Conclusion
188
A Programme crypta
191
B Programme eq10
193
C Programme eq20
195
D Programme alpha
198
E Programme queens
200
F Programme five
202
G Programme cars
204
H Programme bridge
209
I Manuel d'utilisation de wamcc
216
I.1 Using wamcc - Modularity : : : : : : : : : : : : : : : : : : : : : : : : : : : 217
I.2 From Prolog modules to Unix Executables : : : : : : : : : : : : : : : : : : 219
I.2.1 Compiling Prolog Modules : : : : : : : : : : : : : : : : : : : : : : : 219
I.2.2 Generating Object Files : : : : : : : : : : : : : : : : : : : : : : : : 221
I.2.3 Linking Object Files : : : : : : : : : : : : : : : : : : : : : : : : : : 221
I.2.4 Stack Overow Messages : : : : : : : : : : : : : : : : : : : : : : : : 222
I.2.5 Makele Generator - bmf wamcc Utility : : : : : : : : : : : : : : : : 222
I.3 Built-in Predicates : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 223
I.3.1 Input / Output : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 223
I.3.2 Arithmetic : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 228
I.3.3 Term Management : : : : : : : : : : : : : : : : : : : : : : : : : : : 230
I.3.4 Test Predicates : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 234
I.3.5 Control : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 235
I.3.6 List Processing : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 237
I.3.7 Operators : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 238
I.3.8 Modication of the Program : : : : : : : : : : : : : : : : : : : : : : 239
I.3.9 All Solutions : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 240
I.3.10 Global Variables : : : : : : : : : : : : : : : : : : : : : : : : : : : : 242
I.3.11 Miscellaneous : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 247
I.4 Debugger : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 249
J Manuel d'utilisation de clp(FD)
254
J.1 Introduction : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 255
J.2 Finite Domain variables : : : : : : : : : : : : : : : : : : : : : : : : : : : : 256
J.3 Finite Domain built-in predicates / constraints : : : : : : : : : : : : : : : : 257
J.3.1 The constraint X
in
r : : : : : : : : : : : : : : : : : : : : : : : : : 257
J.3.2 Linear arithmetic constraints : : : : : : : : : : : : : : : : : : : : : 258
J.3.3 Other arithmetic constraints : : : : : : : : : : : : : : : : : : : : : : 259
J.3.4 Domain Handling : : : : : : : : : : : : : : : : : : : : : : : : : : : : 260
J.3.5 Enumeration predicates : : : : : : : : : : : : : : : : : : : : : : : : 261
J.3.6 Symbolic constraints : : : : : : : : : : : : : : : : : : : : : : : : : : 261
J.3.7 Symbolic constraints : : : : : : : : : : : : : : : : : : : : : : : : : : 262
J.4 Boolean built-in predicates / constraints : : : : : : : : : : : : : : : : : : : 262
J.4.1 Basic boolean constraints : : : : : : : : : : : : : : : : : : : : : : : 262
J.4.2 Symbolic boolean constraints : : : : : : : : : : : : : : : : : : : : : 263
Table des tableaux
1
syntaxe de la contrainte X
2
semantique denotationnelle de l'operation Tell : : : : : : : : : : : : : : : :
20
3
exemple de code WAM : : : : : : : : : : : : : : : : : : : : : : : : : : : : :
48
4
chier de description de la WAM : : : : : : : : : : : : : : : : : : : : : : :
64
5
performances de wamcc (temps en sec.) : : : : : : : : : : : : : : : : : : : :
68
6
wamcc
versus autres Prolog universitaires (temps en sec.) : : : : : : : : : :
69
7
wamcc
versus Prolog professionnels (temps en sec.) : : : : : : : : : : : : : :
71
8
fragment du code genere pour 'x=y+c' : : : : : : : : : : : : : : : : : : : :
88
9
fragment de code C genere pour 'x=y+c' : : : : : : : : : : : : : : : : : : :
92
10 fragment de code assembleur Sparc genere pour 'x=y+c' : : : : : : : : : :
92
11 version de base de clp(FD) versus CHIP (temps en sec.) : : : : : : : : : :
94
12 decomposition des Tells dans la version de base : : : : : : : : : : : : : : :
95
13 gain de la le optimisee : : : : : : : : : : : : : : : : : : : : : : : : : : : : :
98
14 decomposition des Tells avec une le optimisee : : : : : : : : : : : : : : :
98
in
r : : : : : : : : : : : : : : : : : : : : : : : : 16
15 gain de l'optimisation 2 : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 100
16 decomposition des Tells dans la version nale : : : : : : : : : : : : : : : : 104
17 gain de la version nale : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 104
9
18 detail du gain nal : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 104
19
clp(FD)
versus CHIP (temps en sec.) : : : : : : : : : : : : : : : : : : : : : 106
20
clp(FD)
versus compilateur CHIP (temps en sec.) : : : : : : : : : : : : : : 106
21 theorie de propagation booleenne B : : : : : : : : : : : : : : : : : : : : : : 114
22 denition du resolveur booleen de clp(B/FD) : : : : : : : : : : : : : : : : : 116
23
clp(B/FD)
versus CHIP (temps en sec.) : : : : : : : : : : : : : : : : : : : 118
24
clp(B/FD)
versus un BDD (temps en sec.) : : : : : : : : : : : : : : : : : : 119
25
clp(B/FD)
versus une methode enumerative (temps en sec.) : : : : : : : : 120
26
clp(B/FD)
versus la consistance locale booleenne (temps en sec.) : : : : : : 121
27
clp(B/FD)
versus une methode de R.O. (temps en sec.) : : : : : : : : : : : 122
28 syntaxe de la contrainte l0
l : : :,ln : : : : : : : : : : : : : : : : : : : : 123
<= 1 ,
29 denition du resolveur booleen de clp(B) : : : : : : : : : : : : : : : : : : : 124
30 code genere pour and(X,Y,Z) : : : : : : : : : : : : : : : : : : : : : : : : : 130
31
clp(B)
versus les autres resolveurs : : : : : : : : : : : : : : : : : : : : : : 133
32 denition de inf (t) et sup(t) : : : : : : : : : : : : : : : : : : : : : : : : : : 139
33 denition de A(r) et M (r) : : : : : : : : : : : : : : : : : : : : : : : : : : : 140
34 nouvelle denition de A(r) et M (r) : : : : : : : : : : : : : : : : : : : : : : 143
35 probleme des series magiques : : : : : : : : : : : : : : : : : : : : : : : : : 155
36 syntaxe etendue de la contrainte X
37 code de X
38
queens
f
g
in - val(Y)
f
in
r : : : : : : : : : : : : : : : : : : : 159
g
& - val(Y)-I
f
& - val(Y)+I
g : : : : : : : : : 161
optimise avec fonctions utilisateurs : : : : : : : : : : : : : : : : : : 162
39 fragment of the constraint system syntax : : : : : : : : : : : : : : : : : : : 176
40 implementation of our small problem with clp(FD) constraints : : : : : : : 182
41 some runtime examples : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 185
Table des gures
1
exemple d'arbre de recherche standard : : : : : : : : : : : : : : : : : : : :
26
2
structures de la trail : : : : : : : : : : : : : : : : : : : : : : : : : : : : : :
29
3
representation des termes dans la WAM : : : : : : : : : : : : : : : : : : :
31
4
architecture de la WAM : : : : : : : : : : : : : : : : : : : : : : : : : : : :
33
5
processus de compilation : : : : : : : : : : : : : : : : : : : : : : : : : : : :
61
6
disposition des piles en memoire : : : : : : : : : : : : : : : : : : : : : : : :
62
7
representation interne d'un environnement : : : : : : : : : : : : : : : : : :
77
8
representation interne d'une contrainte : : : : : : : : : : : : : : : : : : : :
78
9
representations internes d'un domaine : : : : : : : : : : : : : : : : : : : : :
80
10 representation interne d'une variable DF : : : : : : : : : : : : : : : : : : :
82
11 structures de donnees pour les contraintes : : : : : : : : : : : : : : : : : :
82
12 nouvelle representation interne d'une variable DF : : : : : : : : : : : : : :
97
13 representation interne denitive d'une variable DF : : : : : : : : : : : : : : 100
14 impact des optimisations : : : : : : : : : : : : : : : : : : : : : : : : : : : : 105
15 BDD representant la formule (x ^ y) _ z : : : : : : : : : : : : : : : : : : : 110
16 representation interne d'une variable booleenne : : : : : : : : : : : : : : : 126
17 representation interne d'une contrainte dans les listes de dependances : : : 127
12
18 structures de donnees necessaires pour la contrainte Z
<= [-X,Y]
: : : : : 128
19 proportion de chaque issue de la procedure de consistance : : : : : : : : : : 131
20 Display of SPORT system : : : : : : : : : : : : : : : : : : : : : : : : : : : 172
21 Graphical representation of a small problem : : : : : : : : : : : : : : : : : 180
22 UM trac before CLP process : : : : : : : : : : : : : : : : : : : : : : : : : 184
23 UM trac after CLP process : : : : : : : : : : : : : : : : : : : : : : : : : 184
Chapitre 1
Introduction
La Programmation Logique avec Contraintes (PLC) est un domaine de recherches tres actif
depuis quelques annees et des langages comme CHIP, PLC(R) ou PrologIII ont prouve
que cette approche ouvrait la Programmation Logique (PL) classique a un vaste champ
d'applications. L'idee de base de la PLC est de remplacer le mecanisme d'unication de la
PL par la resolution de contraintes sur des domaines particuliers, en considerant le resolveur
de contraintes comme une bo^te noire qui se charge de tester la satisabilite des contraintes
et, possiblement, de les reduire a une forme normale. Bien que cette dichotomie soit tres
importante du point de vue theorique, et qu'elle ait permis par exemple d'importer de
nombreux theoremes de la semantique de la PL vers la PLC, elle n'est pas tres satisfaisante
du point de vue pratique. En eet la resolution de contraintes et l'interface entre le moteur
logique et le resolveur restent ainsi entoures d'un mystere nebuleux, ce qui n'aide pas a
une vision claire de l'architecture d'un systeme de PLC. Il est d'ailleurs a noter qu'il y a
un curieux manque de litterature sur l'aspect pratique de la PLC...
On peut considerer qu'une des avancees majeures de la Programmation Logique dans les
annees 80 a ete la denition de la machine abstraite de Warren (WAM), qui est devenue
un standard de facto (une alternative a l'ISO) pour la compilation de Prolog. La WAM
a aide de nombreux chercheurs a acquerir une meilleure comprehension de l'execution
de Prolog et a developper des systemes de PL ecaces. De plus, la WAM s'est averee
susamment exible pour servir de base a diverses extensions de la PL telles que les
contraintes, la concurrence, le parallelisme, l'ordre superieur, etc. Pour revenir a la PLC,
on ne peut que deplorer le fait que l'approche bo^te noire ne donne que peut d'informations
1
CHAPITRE 1. INTRODUCTION
2
sur l'architecture d'un systeme de PLC et ne se pr^ete pas a la denition d'une machine
abstraite pour la compilation et le traitement des contraintes. Un probleme supplementaire
ici est le fait qu'il doit en realite y avoir autant de machines abstraites qu'il y a de resolveurs,
c'est-a-dire de domaines de contraintes.
Dans cette these nous nous sommes donc concentres sur la denition et l'implantation d'un
systeme de PLC sur les domaines nis. L'idee ma^tresse qui a dirige ce travail etait la volonte
de denir une architecture simple, claire et minimale. Le probleme majeur etait donc de
determiner quels etaient les elements minimaux qu'il fallait utiliser pour pouvoir ensuite
reconstruire un systeme complet, avec comme contraintes supplementaires l'extensibilite
et l'ecacite. Il s'agissait ensuite de concevoir une architecture concrete et une machine
abstraite pour le traitement des contraintes sur les domaines nis.
1.1 Les domaines nis
Parmi les dierents domaines de calcul etudies en PLC, celui des domaines nis semble
^etre le plus prometteur, car il est tres utile dans de nombreuses applications industrielles
comme par exemple les problemes combinatoires, l'ordonnancement, les optimisations de
stocks, la simulation de circuits, le diagnostic, l'aide a la decision ou m^eme les problemes
booleens.
Les domaines nis ont ete introduits en PLC par Pascal van Hentenryck dans le langage
CHIP vers la n des annees 80. Un domaine ni est tout simplement un ensemble de
valeurs, numeriques ou symboliques, de cardinalite nie, comme par exemple f1,2,5,12g,
1..45, ou frouge,vert,bleug. Les contraintes proposees sont aussi bien des contraintes arithmetiques telles que des equations, inequations ou disequations entre des termes lineaires1
que des contraintes symboliques qui ne relevent pas des operations mathematiques habituelles, comme par exemple la relation atmost(N,[X1 ,: : : ,Xm ],V) qui signie qu'au plus
N variables Xi sont egales a l'entier V . Les algorithmes de resolution de contraintes utilises derivent des techniques de consistance des \Constraint Satisfaction Problems" (CSP)
introduits en Intelligence Articielle pour la reconnaissance des formes il y a une vingtaine
d'annees, cf. les travaux de Montanari et de Waltz. L'idee de base est de construire et de
1
bien que cette restriction a la linearite puisse facilement ^etre levee.
CHAPITRE 1. INTRODUCTION
3
mettre a jour un reseau de contraintes entre des variables (en nombre ni) pouvant prendre
une valeur dans un domaine ni. On a donc un graphe dont les noeuds sont les variables
et les arcs les contraintes. La satisabilite de l'ensemble de contraintes est assuree en propageant de proche en proche (propagation dite locale) les valeurs possibles des variables a
travers les contraintes qui les lient entre elles. On utilise en general, pour des raisons d'ecacite, une technique appelee consistance d'arcs qui propage a travers le reseau uniquement
les contraintes unaires (domaines des variables), plut^ot que la consistance de chemin ou la
technique plus generale de k-consistance qui propage des relations concernant k variables.
L'ecacite de la consistance d'arc, ainsi que de certaines extensions/simplications dont
il sera question dans cette these, a ete montree pour le traitement des equations, inequations et disequations lineaires par exemple, ainsi que pour de nombreuses applications
industrielles traitees avec le langage CHIP, qui integre de telles techniques.
Il est a noter cependant que la consistance d'arc ne permet pas d'obtenir par elle seule
une methode correcte pour s'assurer de la satisabilite d'un ensemble de contraintes. La
consistance d'arc peut en eet ignorer certaines valeurs inconsistantes des domaines et repondre qu'un ensemble de contraintes est consistant alors qu'il ne l'est pas. Considerons
par exemple 3 variables X , Y et Z dont les domaines sont f0,1g et l'ensemble de contraintes
fX 6= Y; Y 6= Z; Z 6= X g. En propageant uniquement les domaines des variables (f0,1g)
a travers le reseau de contraintes, on ne peut deduire que cet ensemble est inconsistant,
puisque pour chaque contrainte il y a une instanciation possible des variables satisfaisant
cette contrainte. Chaque contrainte est traitee localement (d'ou, encore, le nom de propagation locale), et seuls les domaines des variables permettent de transmettre quelque
information entre les contraintes. Notons que dans l'exemple precedent il faudrait propager des relations binaires representant les couples de valeurs possibles pour deux variables
liees par une contrainte pour trouver l'insatisabilite globale de l'ensemble de contraintes.
Cependant un tel schema peut s'averer tres co^uteux et il n'est pas s^ur que cela soit payant
en general. Il faut donc, en plus de la consistance d'arc qui peut reduire les domaines des variables mais n'est pas susante, une phase d'enumeration qui instanciera incrementalement
les variables non encore determinees aux valeurs possibles de leurs domaines. Dierentes
heuristiques peuvent ^etre integrees lors de cette phase pour tenter de reduire la combinatoire. Notons cependant que l'instanciation d'une variable doit ^etre suivie d'une phase
de propagation de cette valeur dans le reseau de contraintes pour possiblement reduire
les domaines des autres variables, toujours pour diminuer la combinatoire. Une solution
CHAPITRE 1. INTRODUCTION
4
est trouvee lorsque l'on aura instancie toutes les variables, et si ce n'est pas le cas alors
l'insatisabilite aura ete prouvee.
On voit bien que la phase d'enumeration, necessaire pour s'assurer de la correction du calcul
et construire une solution, est complexe et co^uteuse. C'est pourquoi les langages de PLC sur
les domaines nis l'executent uniquement a la n de l'execution du programme, juste avant
de proposer une solution reponse a l'utilisateur. Pendant toute la duree du calcul, seule
la phase de consistance d'arc aura ete eectuee pour tester la satisabilite de l'ensemble
courant de contraintes. Ceci implique que le systeme a peut-^etre explore inutilement des
branches d'echec qui n'auront ete decouvertes comme telles qu'ultimement, mais cela ne
remet pas en cause la correction ni la completude des calculs.
1.2 Approche RISC versus approche CISC
Nous avons suivi jusqu'ici l'approche traditionnelle de la PLC en presentant pour les domaines nis un resolveur de type bo^te noire base sur les techniques de consistance d'arc
(propagation locale des domaines des variables). En fait, ceci est tres grossier, et il faut
en pratique traiter chaque contrainte particulierement et specialiser la propagation locale
pour chacune d'elle. Le resolveur de CHIP par exemple suit cette approche, et il consiste,
du point de vue de l'implantation, en une collection de procedures chargees du traitement
particulier de chaque contrainte, ecrites en langage C par souci d'ecacite. Ceci ne se
fait cependant qu'aux depens de l'extensibilite et de la clarte, et le programmeur ne sait
jamais exactement quel traitement est eectue par le resolveur et en est reduit a esperer
que l'implanteur ait bien fait son travail et qu'il n'aura pas besoin de denir de nouvelles
contraintes pour une application donnee.
Nous allons proposer une autre approche, appelee metaphoriquement l'approche RISC par
analogie avec la technologie des microprocesseurs. La bo^te de verre (i.e. transparente)
remplace la bo^te noire. Cette methode permet d'obtenir d'excellentes performances et
allie donc simplicite et ecacite. Comme pour les microprocesseurs, il vaut mieux avoir un
jeu d'instructions simple et limite mais optimise plut^ot qu'un traitement lourd et specique
de chaque cas particulier.
L'idee de base est de denir des contraintes primitives, simples et en nombre limite, et de
CHAPITRE 1. INTRODUCTION
5
reb^atir gr^ace a elles les contraintes complexes usuelles, comme par exemple les contraintes
arithmetiques (ex. X = 3 Y + Z , X < Y ou Z 6= 2 Y 3, etc) ou diverses contraintes
symboliques (ex. atmost(N,[X1 ,: : : ,Xm ],V)). On a donc un processus en deux etapes : les
contraintes complexes sont traduites lors de la compilation en des ensembles de contraintes
primitives, et, lors de l'execution, le resolveur a uniquement a gerer ces contraintes primitives. Le resolveur est donc ainsi beaucoup plus simple, uniforme et homogene. En outre le
niveau des contraintes primitives donne un degre de liberte de plus et peut ^etre considere
comme une sorte de langage de base pour exprimer les mecanismes de propagation et la
methode de resolution choisie pour traiter une contrainte complexe. De plus le resolveur
est maintenant ouvert (a l'utilisateur) car de nouvelles contraintes peuvent ^etre ajoutees
facilement : il sut de specier leur traduction en contraintes primitives. En outre une
machine abstraite pour la resolution des contraintes sur les domaines nis peut alors ^etre
plus facilement developpee a partir de l'ensemble (reduit) des contraintes primitives.
Quelles sont donc ces contraintes primitives qui permettent de reb^atir a peu de frais toutes
les contraintes usuelles sur les domaines nis ? Une idee nouvelle a ete proposee il y a
quelques annees par Pascal van Hentenryck. Il sut en fait d'une unique contrainte primitive d'appartenance : la contrainte X in r ou X est une variable domaine ni et r denote
un ensemble d'entiers. La semantique intuitive d'une telle contrainte est de forcer X a appartenir au domaine denote par r (i.e. X 2 r). r peut ^etre deni comme un intervalle t1 ..t2
ou a partir d'autres domaines par des operations d'union, intersection,... La puissance de
cette primitive provient du fait que r peut aussi bien denoter un ensemble constant (ex.
1..10) qu'un ensemble d
ependant de la valeur d'autres variables gr^ace a l'utilisation de
domaines/termes indexicaux (min(Y ), max(Y ), dom(Y )). Une telle contrainte fournit une
valeur dependant du domaine courant des autres variables et evolue donc au l des reductions de ces variables. Nous verrons precisement dans cette these comment compiler des
contraintes de haut niveau en contraintes primitives, comme bien s^ur les equations ou inequations lineaires (et non-lineaires aussi d'ailleurs), mais aussi les contraintes symboliques.
Nous verrons egalement qu'il est possible de denir un certains nombre d'optimisations
globales pour le traitement de la contrainte X in r pour eviter les propagations inutiles.
Du fait de l'architecture RISC, toutes les contraintes de haut niveau benecieront de ces
optimisations et nous montrerons qu'un tel resolveur est tres ecace, meilleur en tout cas
que les resolveurs bo^tes noires actuels.
CHAPITRE 1. INTRODUCTION
6
En resume, un resolveur de contraintes suivant l'approche RISC se decompose en deux
parties : un pre-processeur traduisant les contraintes complexes (visibles a l'utilisateur) en
contraintes primitives, et un resolveur proprement dit traitant uniquement les contraintes
primitives.
1.3 Operation Ask et contraintes conditionnelles
Abordons maintenant le probleme de l'extensibilite des resolveurs de contraintes. La difculte principale lorsqu'on denit des contraintes complexes, comme par exemple les contraintes symboliques proposees par le langage CHIP (atmost, etc), est de specier un contr^ole sur la propagation de contraintes et en particulier de preciser que certaines contraintes
ne doivent ^etre considerees que de maniere conditionnelle, i.e. sous reserve qu'une certaine
condition soit veriee. Ceci se rapproche beaucoup des mecanismes de retard que l'on
trouve en Prolog, comme par exemple les declarations wait ou delay de certains systemes
ou le seminal freeze de PrologII. Ces mecanismes de retard sont lies, en programmation
logique, a des conditions d'instanciation de certaines variables Prolog ; le mecanisme correspondant necessaire en PLC considerera de maniere plus generale comme conditions des
contraintes sur les variables du domaine d'inter^et. Supposons par exemple que l'on veuille
denir la contrainte atmost(N,[X1 ,: : : ,Xm ],V). Il faut pouvoir exprimer que des que N
variables auront la valeur V , toutes les autres auront des valeurs dierentes de V . On
veut donc avoir comme conditions des contraintes (non exprimables par les simples tests
sur l'instanciation des delay ou freeze) et en cas de satisfaction ajouter de nouvelles
contraintes (Xj 6= V ). CHIP propose pour cela une construction if then else a la signication immediate, mais celle-ci reste limitee puisque seules des equations ou inequations
lineaires comportant deux variables au plus peuvent appara^tre en condition. Ceci est d^u
a l'approche bo^te noire qui a pour consequence la necessite de denir pour chaque type
particulier de contrainte condition un test specique.
Heureusement, l'approche RISC apporte la encore une solution interessante gr^ace a son
modele simple et surtout homogene. En eet nous verrons comment generer a partir des
contraintes primitives des conditions logiques decrivant si une contrainte est impliquee par
l'ensemble courant de contraintes ou non. Ces conditions logiques se derivent aisement de
la syntaxe des contraintes X in r. Une contrainte conditionnelle peut donc ^etre compilee
CHAPITRE 1. INTRODUCTION
7
en un test logique qu'il sera facile de tester ecacement lors de l'execution du programme.
Notons que l'idee d'avoir une contrainte condition pour l'execution d'une autre contrainte
ou d'un predicat logique derive en fait des travaux sur les langages concurrents avec contraintes (CC) ou cette construction, appelee Ask, sert de mecanisme de synchronisation
de base entre processus concurrents. Ce travail ouvre donc naturellement sur l'extension
d'un langage de PLC sur les domaines nis vers un langage CC sur les domaines nis.
1.4 Contraintes booleennes
Un autre exemple interessant pour montrer la exibilite de l'approche RISC est l'etude
des contraintes booleennes : celles-ci (et, ou et non, pour rester simple) sont a valeur
dans un domaine ni (f0,1g!) mais sont cependant dierentes des contraintes usuelles.
Il est donc interessant de voir s'il est possible d'encoder ecacement ces contraintes en
contraintes primitives X in r et de comparer le resolveur booleen ainsi obtenu avec les
autres resolveurs existants utilisant des methodes et algorithmes completement dierents.
La resolution des contraintes booleennes est un probleme deja ancien mais qui nourrit
des recherches toujours tres actives. De nombreuses methodes ont ete developpees, soit
generales, soit pour des types particuliers de formules. Il y a quelques annees l'utilisation
de techniques de propagation locale a ete proposee par le langage CHIP, qui en fait dispose
de deux resolveurs booleens : l'un base sur l'unication booleenne, et l'autre utilisant la
propagation locale et reutilisant certaines procedures du resolveur sur les domaines nis.
Il s'avere en fait que le resolveur utilisant la propagation est bien plus ecace que l'autre,
a tel point que dans CHIP il est le resolveur par defaut pour les booleens.
Il est en fait tres facile de denir les operation booleennes de base (et, ou et non) en
termes de contraintes primitives. Le resolveur booleen est reduit a moins de 10 lignes de
code ! C'est-a-dire a 3 denitions de contraintes en termes de X in r. Notons en outre
que cet encodage se fait a un niveau plus bas qu'une simple transformation des contraintes
booleennes en expressions arithmetiques par exemple et qu'on peut ainsi esperer une plus
grande ecacite. En outre, ce resolveur est ouvert a l'utilisateur qui peut ajouter de nouvelles contraintes, pour integrer par exemple directement des contraintes d'implication,
d'equivalence, etc.
CHAPITRE 1. INTRODUCTION
8
Ceci est cependant assez evident, du fait que les booleens sont un cas particulier de domaines nis et peut sembler un simple exercice d'ecole. Le plus surprenant cependant est
que le resolveur ainsi realise soit tres ecace : il est plus rapide que le resolveur de CHIP
d'environ un ordre de magnitude, et se compare favorablement a la plupart des resolveurs
booleens ad hoc bases sur d'autres algorithmes, comme les methodes enumeratives, les
BDD ou les techniques de recherche operationnelle. Notons nalement que ces resolveurs
utilisent en general de nombreuses heuristiques pour ameliorer les performances, alors que
notre resolveur n'en a pour l'instant aucune, et que l'on peut donc encore esperer une
amelioration des performances.
1.5 Le systeme clp(FD)
L'approche RISC des domaines nis peut ^etre implantee tres ecacement dans un moteur
logique classique base sur la WAM, la \Warren Abstract Machine", qui est l'architecture
standard des compilateurs Prolog et de bon nombre de systemes logiques etendus. Un tel
systeme est implante dans le langage clp(FD) decrit dans cette these.
Il a cependant d'abord fallu, avant de realiser clp(FD), implanter un systeme Prolog classique pour servir de support au systeme de programmation par contraintes. Celui-ci est
appele wamcc car il traduit Prolog vers C via la WAM. Il ne s'agit pas simplement de developper un systeme de programmation en logique de plus, mais d'etudier comment denir
de la maniere la plus simple et minimale possible un systeme repondant aux demandes
suivantes :
extensibilite : le systeme doit ^etre une plate-forme experimentale, modiable et extensible. Ceci implique que son architecture soit simple, sans les optimisations complexes
courantes dans les systemes Prolog commerciaux qui pourraient aller a l'encontre de
l'integration de diverses extensions, voire la rendre completement impossible.
portabilite : pour esperer une large diusion et eviter l'obsolescence liee a l'attachement a une machine particuliere.
ecacite : pour repondre au besoin des utilisateurs, que ce soit pour la partie Prolog
ou pour le traitement des contraintes.
CHAPITRE 1. INTRODUCTION
9
modularite : pour pouvoir decomposer une application en dierents modules, et ainsi
pouvoir traiter des applications de taille importante.
Le systeme ainsi developpe, wamcc, s'avere a la fois simple d'architecture (donc extensible
facilement, a l'oppose d'un systeme comme Quintus ou Sicstus Prolog par exemple) et
ecace : ses performances sont equivalentes a celles de Quintus Prolog 2.5, qui est base
sur un emulateur de code WAM optimise ecrit en assembleur. Notons que Quintus Prolog
est un produit commercial ayant necessite plusieurs annees de developpement.
L'idee de base de l'architecture de clp(FD) pour le traitement des contraintes est d'avoir
une structure des donnees simple et homogene pour les domaines de variables, les contraintes et les environnements. Il s'agit donc d'etendre l'architecture de wamcc, et en particulier la WAM, de maniere minimale. Ceci est rendu possible par l'approche RISC, gr^ace au
traitement d'un seul type de contrainte : la contrainte indexicale X in r. Ceci permettra
un traitement uniforme des contraintes et un certain nombre d'optimisations.
L'une des particularite du langage clp(FD) est de ne pas seulement proposer un jeu d'instructions pour compiler des contraintes primitives vers un langage de bas niveau (une
machine abstraite pour les contraintes sur les domaines nis) qui serait emule, mais de
compiler ensuite ce langage intermediaire vers le langage C, considere ainsi comme un assembleur generique. On suit en cela naturellement l'approche de wamcc qui compile Prolog
vers C. Ceci permet d'optimiser bon nombre d'operations (numeriques par exemple), et
d'utiliser les optimisations de tres bas niveau des compilateurs C.
est ainsi un langage tres ecace : la partie Prolog (car la PLC contient Prolog !)
est aussi ecace que Quintus Prolog, et, pour ce qui est du traitement des contraintes
sur les domaines nis, ce langage est nettement plus rapide que CHIP, de 2 a 10 fois plus
rapide, voire plus, selon les exemples testes. Ainsi l'approche RISC prouve qu'elle permet
de gagner a la fois en simplicite et en ecacite.
clp(FD)
clp(FD) semble donc r
ealiser notre objectif initial : concevoir un systeme de programmation
logique avec contraintes sur les domaines nis extensible, simple, ecace, et modulaire.
Chapitre 2
La programmation logique par
contraintes
2.1 Les systemes de contraintes
La maniere la plus simple de denir une contrainte est de la voir comme une formule logique
atomique (relation) qui est interpretee dans une structure particuliere et non pas dans une
interpretation de Herbrand comme le sont les predicats logiques classiques. C'est d'ailleurs
la denition la plus usitee et traditionnelle en PLC, originellement proposee par Jaar
et Lassez [44]. Cependant une formalisation plus generale a recemment ete proposee par
V. Saraswat [63], qui considere les systemes de contraintes comme une generalisation des
systemes d'information de Scott [64] qui ont prouve leur utilite dans divers domaines de
semantique de la programmation depuis plus d'une decennie. Cette approche met l'accent
sur la denition d'une relation de satisfaction (entailment en anglais) de contraintes qui
denit le coeur de la semantique du systeme de contraintes. Cette relation de satisfaction
indiquera comment les contraintes se deduisent les unes des autres et devra verier certaines
proprietes que nous allons tout de suite enoncer.
Denition 2.1 Un systeme de contraintes est un couple (D; `) tel que :
D est un ensemble de formules atomiques clos par conjonction et quantication
existentielle, contenant les constantes vrai et faux usuelles.
10
CHAPITRE 2. LA PROGRAMMATION LOGIQUE PAR CONTRAINTES
11
` est une relation de satisfaction entre un ensemble ni de formules (note S )
et une formule qui satisfait les regles d'inference suivantes (classiques en calcul des
sequents) :
S; c ` c (Struct)
S1 ` c1 S2 ; c1 ` c2
(Cut)
S1 ; S2 ` c2
S; c1 ; c2 ` f
S ` c1 S ` c2
(^ `)
(` ^)
S; c1 ^ c2 ` f
S ` c1 ^ c2
S ` c[t=X ]
S; c1 ` c2
(9 `)
(` 9)
S; 9X: c1 ` c2
S ` 9X: c
Dans (9 `), X ne doit pas ^etre une variable libre dans S; c2 .
` est generique.
C'est-a-dire que pour toute variable X de S et pour tout terme t :
S [t=X ] ` c[t=X ] lorsque S ` c
Les systemes de contraintes denis comme ceci ont un certain nombre de proprietes interessantes, en particulier l'ensemble de tous ces systemes forme une categorie cartesienne
fermee, c'est-a-dire close par produit cartesien et par exponentiation.
En general, lorsque l'on voudra denir un systeme de contraintes, on ne denira pas une
relation de satisfaction ex nihilo, mais on utilisera plut^ot une relation deja existante (il
faudra alors montrer qu'elle satisfait les bonnes proprietes).
Denition 2.2 Un pre-systeme de contraintes est un couple (D; `) tel que :
D est un ensemble de formules atomiques.
` est une relation de satisfaction satisfaisant (Struct), (Cut) et etant generique.
Le theoreme suivant permet de denir un systeme de contraintes a partir d'un pre-systeme
de contraintes.
Theoreme 2.1 [63] Soit (D0; `0) un pre-systeme de contraintes. Soit D la cl^oture de D0
pour la quantication existentielle et pour la conjonction. Soit ` la cl^oture de `0 par les
regles d'inferences. Alors (D; `) est un systeme de contraintes.
CHAPITRE 2. LA PROGRAMMATION LOGIQUE PAR CONTRAINTES
12
Par exemple, un systeme de contraintes peut ^etre construit de maniere directe a partir d'une
theorie logique du premier ordre (c'est-a-dire d'un ensemble de formules du premier ordre).
Prenons une theorie T et denissons D comme la cl^oture des formules dans le vocabulaire
de T par conjonction et quantication existentielle. On denit alors la relation `T comme
suit : S `T d si et seulement si S implique logiquement d, en utilisant comme extension
les axiomes de T . On peut alors montrer facilement que (D; `T ) verie les proprietes des
systemes de contraintes donnees ci-dessus.
On voit ainsi que cette denition generalise naturellement la vision traditionnelle des contraintes comme des formules interpretees dans une structure particuliere. Ici la structure
est toujours implicite, on ne donne que la relation de satisfaction qui est un element fondamental a denir pour comprendre comment l'information s'accumule et se propage gr^ace
aux contraintes.
2.2 Le cadre PLC(C ) - syntaxe et semantique
Nous presentons la syntaxe des programmes logiques avec contraintes et leur semantique
operationnelle.
2.2.1 Syntaxe des programmes logiques avec contraintes
Denissons maintenant, etant donne un systeme de contraintes C =(D; `), un programme
logique avec contraintes sur C .
Considerons un ensemble P de predicats et un ensemble enumerable V de variables qui
seront utilises pour denir les predicats logiques dans le langage PLC(C ). Les symboles
utilises dans P doivent ^etre disjoints de ceux de D, et on considerera en outre que l'ensemble
des variables apparaissant dans D est contenu dans V . On suppose nalement que D
contient un predicat \=" qui sera traite comme l'identite et sera utilise en notation inxe.
Denition 2.3 Un programme logique avec contraintes de PLC(C ) est un ensemble
de clauses denies de la forme :
p(X ) : q1 (Y1); :::; qn(Yn)
CHAPITRE 2. LA PROGRAMMATION LOGIQUE PAR CONTRAINTES
13
ou X; Y1; :::; Yn sont des vecteurs de variables de V deux a deux distinctes, p(X ) 2 P et
q1 (Y1); :::; qn(Yn) 2 P [ D.
p(X ) est appele la t^ete de la clause et q1(Y1); :::; qn(Yn) son corps.
On remarquera que le corps de la clause contient toutes les contraintes et que les arguments
des predicats sont donc toujours des variables. Ainsi lors d'un appel de procedure il y aura
uniquement identication des variables (predicat \=") entre l'appelant et l'appele et il est
alors inutile d'utiliser un mecanisme d'unication.
2.2.2 Semantique des programmes logiques avec contraintes
L'execution d'un programme logique avec contraintes part d'une clause particuliere appelee
but. Il s'agit d'une clause dont la t^ete est vide et qui se reduit donc a un corps1 . D'un point de
vue procedural, un but va donc contenir un melange de predicats, qui seront les procedures
a executer, et de contraintes, qui representeront un etat initial pour les variables. D'un point
de vue logique, le but represente une formule que l'on veut demontrer a l'aide des axiomes
du programme.
Par souci de simplicite, nous nous interesserons ici uniquement a la semantique operationnelle de la PLC et formaliserons de maniere classique l'execution d'un programme par une
sequence de buts qui partira du but initial pour aboutir a un etat nal ou boucler.
Une conguration est un couple < ; >, ou est un ensemble de predicats logiques et
des contraintes representant le calcul a executer, et ou est un ensemble de contraintes
representant l'etat courant des variables du calcul. Ceci reprend (et etend) le formalisme
classique de la programmation logique ou un etat de calcul est represente par un ensemble
de buts courants et une substitution.
Denition 2.4 Soit P un programme et G un but de PLC(C ). Un calcul de P a partir
de G est une sequence (possiblement innie) de congurations
< 0 ; 0 > ! < 1 ; 1 > ! ::: ! < n ; n > ! :::,
ou <
0
; 0 > est < G ; ; >, et ou < Gi+1 ; i+1 > se derive de < Gi ; i > comme suit.
Supposons Gi de la forme p0 (X0 ); p1(X1 ); :::; pk (Xk ), on a :
1
est-ce un but enviable ?
CHAPITRE 2. LA PROGRAMMATION LOGIQUE PAR CONTRAINTES
14
soit p0 (X0) 2 P (c'est-a-dire que p0 est un predicat logique).
Dans ce cas, s'il existe une clause avec un predicat de t^ete p0 dans P , soit
p0(Y0) : q1 (Y1); :::; qn(Yn) un renommage (avec des variables qui n'apparaissent pas
dans < i ; i >) de cette clause.
Alors i+1 est egal a q1 (Y1 ); :::; qn (Yn); p1 (X1 ); :::; pk (Xk )
m
^
et i+1 est egal a i [ (X0(i) = Y0 (i)), ou m est l'arite de p0 .
i=1
soit p0 (X0) 2 D (c'est-a-dire que p0 est une contrainte).
Alors si p0(X0 ) est consistant avec i , c'est-a-dire formellement
i [ p0 (X0) 6` faux
on rajoute cette contrainte dans i pour obtenir une nouvelle conguration avec
i+1 egal a p1 (X1 ); :::; pk (Xk ) et i+1 egal a i [ p0 (X0 ).
Un tel calcul peut, s'il termine, nir dans une conguration de la forme < ; ; >, auquel
cas on a un succes et est l'ensemble de contraintes reponse, ou dans une conguration
< ; > avec non vide, qui represente alors un echec du calcul (soit parce que
l'execution a rencontre un predicat non deni, soit parce que l'ensemble de contraintes est
devenu inconsistant).
2.3 Le cas C =FD
Nous allons nous interesser ici a la denition d'un systeme de contraintes sur les domaines
nis (note FD).
2.3.1 Les domaines nis
Denition 2.5 Un domaine est un ensemble ni non vide de constantes.
En ce qui nous concerne, nous ne nous interesserons qu'a des ensembles d'entiers naturels
(N ) et plus particulierement a des ensembles appartenant aux parties de f0; 1; :::; infinityg
ou infinity est un entier naturel particulier (representant la plus grande valeur qu'une
CHAPITRE 2. LA PROGRAMMATION LOGIQUE PAR CONTRAINTES
15
variable DF puisse prendre2 ). Dom est l'ensemble de tous les domaines.
Nous utiliserons la notation k1 ::k2 comme abreviation de l'ensemble des entiers fk t:q: k1 k k2g.
Denition 2.6 Soit d un domaine, on denit min(d) et max(d) comme les bornes de d :
min(d) = k t:q: k 2 d et 8k0 2 d k k0.
max(d) = k t:q: k 2 d et 8k0 2 d k k0.
Nous utiliserons les operations d'inclusion, d'intersection, d'union et de complementation
(notee d1 n d2 pour designer le complementaire de d2 dans d1).
En ce qui concerne les entiers, on utilise les operations classiques sur les +, , ainsi que
les divisions arrondies par defaut et exces (notees respectivement b=c et d=e).
Nous denissons alors des operations \point a point" sur les domaines.
Denition 2.7 Soit d un domaine et i un entier, le domaine associe a d i avec 2
f+; ; g est deni par d i = fk t:q: k = k0 i et k0 2 dg. Enn, d=i = fk t:q: k =
bk0 =ic et k0 2 dg
Notons que le comportement des operations en cas de debordement (par rapport au domaine 0::infinity) n'est pas specie et correspond a une utilisation erronee de ces operations.
Denition 2.8 Soit d un domaine, une variable domaine sur d est une variable ne
pouvant ^etre instanciee qu'a une des valeurs de d.
Nous noterons Vd l'ensemble des variables DF.
2.3.2 La contrainte
X
in
r
- syntaxe et intuition
Le systeme de contraintes FD est base sur une unique contrainte d'appartenance liant une
variable a un domaine. Nous avons 3 types de donnees syntaxiques : les contraintes (c), les
domaines (r) et les termes arithmetiques (t et ct pour les termes constants). L'ensemble
2
du point de vue de l'implantation, cette valeur depend de la machine et du parametrage du systeme.
CHAPITRE 2. LA PROGRAMMATION LOGIQUE PAR CONTRAINTES
16
des contraintes syntaxiques est nomme Contr, celui des domaines syntaxiques DomSyn et
celui des termes syntaxiques TermSyn.
Denition 2.9 Une contrainte est une formule de la forme X
DomSyn (cf. syntaxe en table 1).
c ::= X
in
r ou X 2 Vd et r 2
r
r ::= t1 ..t2
ftg
R
dom(Y )
r1 : r2
r1 & r2
-r
r + ct
r - ct
r * ct
r / ct
t ::=
in
(intervalle)
(singleton)
(parametre domaine)
(domaine indexical)
(union)
(intersection)
(complementation)
(addition point a point)
(soustraction point a point)
(multiplication point a point)
(division point a point)
Y (terme indexical min)
Y (terme indexical max)
ct j t t j t1-t2 j t1 *t2 j t1 /<t2 j t1 />t2
min( )
max( )
1+ 2
ct ::= C
nj
(parametre terme)
j ct1 +ct2 j ct1 -ct2 j ct1*ct2 j ct1 /<ct2 j ct1 />ct2
infinity
Tableau 1 : syntaxe de la contrainte X
Nous utiliserons X =n comme abreviation de X
in
in
r
n..n.
Intuitivement, la contrainte X in r contraint X a appartenir au domaine denote par r.
Celui-ci peut, non seulement denoter un domaine constant (ex. 1::10) mais aussi un domaine
indexical, i.e. dependant de la valeur d'autres variables. Pour cela, les indexicaux suivants
sont utilises :
dom( )
min( )
max( )
Y qui represente le domaine courant de Y .
Y qui represente la valeur minimale du domaine courant de Y .
Y qui represente la valeur maximale du domaine courant de Y .
CHAPITRE 2. LA PROGRAMMATION LOGIQUE PAR CONTRAINTES
17
Chaque domaine/terme indexical fournit une valeur evoluant tout au long du calcul. Ainsi,
une contrainte X in r sera reevaluee a chaque modication du domaine d'une des variables
dont elle depend. Notons egalement que la denition d'une contrainte peut utiliser des
parametres domaine (resp. terme). Ce sont simplement des variables Prolog devant ^etre
liees a une liste d'entiers (resp. a un entier).
Notons que puisque les domaines sont nis, notre systeme de contraintes sera clos par
negation puisque si c X in r (i.e. X 2 r) alors :c X in -r (i.e. X 2 0::infinity n r).
Denition 2.10 Un store3 est un ensemble ni de contraintes.
Un store est dit en forme normale ssi pour toute variable X 2 Vd il ne contient au plus
qu'une seule contrainte X
in
r.
A partir d'un store S nous obtenons un store S 0 en forme normale en regroupant toutes
les contraintes X in r1, X in r2 , : : : , X in rn portant sur une m^eme variable X et en
les remplacant par une seule contrainte du type X in r1 & r2 & : : : & rn. Notons que
ces ensembles sont equivalents car ils ont, de maniere triviale, les m^emes tuples de valeurs
solutions pour les variables.
Nous ne considererons desormais que des stores en forme normale et l'ecriture S [ fcg
sous-entend que le store resultant est en forme normale.
Nous noterons Store, l'ensemble de tous les stores.
Pendant un calcul, une contrainte X
Considerons par exemple le store fX
in
r peut echouer, ^etre satisfaite ou ^etre a satisfaire.
3..20, Y in 5..7:10..100g :
est satisfaite avec un nouveau store :
3..20 & 10..50, Y in 5..7:10..100g soit :
10..20, Y in 5..7:10..100g.
X in 10..50
fX
fX
in
in
X in 30..50
X in min(Y)..40
3
in
fX
fX
echoue.
in 3..20 &
in 5..20 &
est a satisfaire avec un nouveau store :
5..40 & min(Y)..40, Y in 5..7:10..100g soit :
min(Y)..40, Y in 5..7:10..100g.
nous utiliserons le mot anglais store car il n'a pas de traduction francaise heureuse.
CHAPITRE 2. LA PROGRAMMATION LOGIQUE PAR CONTRAINTES
18
Remarquons que la contrainte indexicale X in min(Y)..40 fournit une contrainte
evaluee dans le store courant (ex. X in 5..40) et reste telle quelle pour propager les
reductions futures de Y.
est a satisfaire avec un nouveau store :
3..20 & 6..8:11..101 & dom(Y)+1, Y in 5..7:10..100g soit :
6..8:11..20 & dom(Y)+1, Y in 5..7:10..100g.
X in dom(Y)+1
fX
fX
in
in
Voyons alors comment denir une contrainte de haut niveau (appelee contrainte utilisateur)
a partir de contraintes X in r. La contrainte X in r doit ^etre vue comme un moyen de
specier le schema de propagation. En fait, X in r permet de specier quoi propager. Par
exemple, les contraintes X = Y + C et X + Y = Z peuvent se denir comme suit :
Exemple 2.1
'x=y+c'(X,Y,C):- X in min(Y)+C..max(Y)+C,
Y in min(X)-C..max(X)-C.
3
Exemple 2.2
'x+y=z'(X,Y,Z):- X in min(Z)-max(Y)..max(Z)-min(Y),
Y in min(Z)-max(X)..max(Z)-min(X),
Z in min(X)+min(Y)..max(X)+max(Y).
3
Dans cette version seules les modications des bornes des variables sont propagees (on
parle de partial lookahead). Donc, si un \trou" appara^t au \milieu" d'un domaine, ce
\trou" n'est pas propage. En ce qui concerne X = Y + C il serait possible de propager
toute modication du domaine (i.e. on parle alors de full lookahead) gr^ace a la denition
suivante :
Exemple 2.3
'x=y+c'(X,Y,C):- X in dom(Y)+C,
Y in dom(X)-C.
3
Notons toutefois que nous ne pouvons pas denir X + Y = Z en full lookahead. Nous presenterons en section 7.3.1, une extension de la syntaxe de X in r permettant la denition
de tels schemas de propagation par full lookahead.
Les contraintes X Y et X A Y peuvent se denir comme suit :
CHAPITRE 2. LA PROGRAMMATION LOGIQUE PAR CONTRAINTES
Exemple 2.4
'xy'(X,Y):Exemple 2.5
'xay'(X,A,Y):-
X in min(Y)..infinity,
Y in 0..max(X).
19
3
X in A*min(Y)..infinity,
Y in 0..max(X)/<A.
3
La contrainte X 6= Y se denit par :
Exemple 2.6
'x=
6 y'(X,Y):-
X in -dom(Y),
Y in -dom(X).
3
Nous verrons plus bas qu'une contrainte comme X in -dom(Y ) est anti-monotone. Intuitivement, le domaine denote par -dom(Y ) augmente au fur et a mesure du calcul (i.e.
puisque le domaine de Y diminue, son complementaire augmente). Ceci pose un probleme
du point de vue de l'implantation puisque une valeur inconsistante pour X (i.e. n'appartenant pas au complementaire du domaine de Y ) peut devenir consistante dans la suite du
calcul du fait d'une reduction de Y . Une telle contrainte ne pourra donc ^etre traitee que
lorsque Y sera instancie. On parle alors de forward checking. Il serait possible d'utiliser un
freeze ou autre delay pour retarder l'
evaluation d'une telle contrainte. Nous avons choisi
de denir un pseudo-terme indexical val(X ) qui retarde l'activation de toute contrainte
dans lequel il appara^t jusqu'a ce que X soit clos. Nous etudierons en section 6 un moyen
plus elegant pour realiser un tel retardement gr^ace a l'operation Ask.
2.3.3 Semantique de
X
in
r
et operation
T ell
L'operation Tell permet d'ajouter une contrainte au store courant. Sa semantique denotationnelle est presentee en table 2.
La fonction T [ X in r ] traduit la semantique de l'operation Tell de X in r dans un
store S . Celle-ci consiste a modier X et a reevaluer les contraintes dependant de X pour
assurer la consistance (i.e. propagation). La premiere phase est assuree par la fonction
semantique intermediaire T 0 [ X in r ] et la seconde est assuree par l'utilisation d'un
CHAPITRE 2. LA PROGRAMMATION LOGIQUE PAR CONTRAINTES
DomSyn : domaines syntaxiques T : Contr ! Store ! Store
TermSyn : termes syntaxiques
T 0 : Contr ! Store ! Store
Dom
: domaines
Er : DomSyn ! Store ! Dom
N
: entiers naturels
Et : TermSyn ! Store ! N
Contr
: contraintes X in r
Store
: stores
T [ c] s
= fix ( s : Sc 2s[fcg T 0 [ c0 ] s)
T 0 [ x in r ] s
= let d = dEr [ r ] se in s [ f x in d g [ f x in r g
0
Er [ t1 ..t2 ] s
Er [ ftg ] s
Er [ R ] s
Er [ dom(Y ) ] s
Er [ r1 : r2 ] s
Er [ r1 & r2 ] s
Er [ -r ] s
Er [ r + ct ] s
Er [ r - ct ] s
Er [ r * ct ] s
Er [ r / ct ] s
= Et [ t1 ] s :: Et [ t2 ] s
= fEt [ t ] sg
= lookup range(R)
= cur domain(X ,s)
= Er [ r1 ] s [ Er [ r2 ] s
= Er [ r1 ] s \ Er [ r2 ] s
= 0::infinity n Er [ r ] s
= Er [ r ] s + Et [ ct ] s
= Er [ r ] s Et [ ct ] s
= Er [ r ] s Et [ ct ] s
= Er [ r ] s = Et [ ct ] s
Et [ n ] s
Et [ infinity ] s
Et [ C ] s
Et [ min(Y ) ] s
Et [ max(Y ) ] s
Et [ t1 + t2 ] s
Et [ t1 - t2 ] s
Et [ t1 * t2 ] s
Et [ t1 /< t2 ] s
Et [ t1 /> t2 ] s
=n
= infinity
= lookup term(C )
= min(cur domain(X ,s))
= max(cur domain(X ,s))
= Et [ t1 ] s + Et [ t2 ] s
= Et [ t1 ] s Et [ t2 ] s
= Et [ t1 ] s Et [ t2 ] s
= bEt [ t1 ] s = Et [ t2 ] sc
= dEt [ t1 ] s = Et [ t2 ] se
X s
X s
cur domain( , )
lookup store( , )
R
C
lookup range( )
lookup term( )
= Er lookup store(X ,s) ;
= if 9 X in r 2 s then r else 0..infinity
retourne le domaine lie a R
retourne l'entier lie a C
Tableau 2 : semantique denotationnelle de l'operation Tell
20
CHAPITRE 2. LA PROGRAMMATION LOGIQUE PAR CONTRAINTES
21
point xe sur le store resultat rendu par T [ X in r ] qui reevalue toutes les contraintes
de S [ fX in rg (via T 0) jusqu'a l'obtention d'un etat stable.
La fonction T 0 [ X in r ] \ajoute" au store deux versions de la contrainte X in r permettant une prise en compte des contraintes indexicales dont la valeur evolue au l des
calculs.
(a) une version de X in r ou r est evalue dans S gr^ace a la fonction semantique Er [ r ]
(l'ecriture dEr [ r ] se represente le domaine syntaxique associe a l'evaluation de r).
Cette version permet de disposer explicitement du domaine de X a chaque etape.
(b) une version de X
r ou r est inchange. Ceci permettra la prise en compte (future)
des indexicaux dans les stores plus contraints.
in
L'evaluation d'un indexical (ex. dom(X ) necessite la recuperation du domaine courant
d'une variable. Du fait de version (a) (cf. ci-dessus), le domaine de toute variable X dans
S s'obtient en recuperant la contrainte X in r qui lui est associee dans S (cf. fonction
lookup store) et en evaluant r sans tenir compte des indexicaux (pour eviter les boucles
innies), ce qui revient a evaluer r dans le store vide (cf. fonction cur domain).
En vue de simplier encore un peu les notations nous utiliserons les abreviations suivantes
relatives a un store S :
XS =cur domain(X ,S ) (i.e. la valeur du domaine de X dans S ).
min(X )S = min(XS ).
max(X )S = max(XS ).
rS = Er [ r ] S (i.e. domaine denote par r dans S ).
tS = Et [ t ] S (i.e. entier denote par t dans S ).
Denition 2.11 Soit S et S 0 deux ensembles de contraintes, on dit que S 0 est plus contraint que S (note S 0 v S ) ssi 8X 2 Vd XS XS .
0
Nous pouvons alors denir une equivalence entre stores comme suit :
Denition 2.12 Deux stores S1 et S2 sont equivalents (note S1 , S2 ) ssi S1 v S2 et
S2 v S1 .
CHAPITRE 2. LA PROGRAMMATION LOGIQUE PAR CONTRAINTES
22
Le fait d'utiliser un point xe pour Tell impose que cette operation soit monotone. De
maniere plus precise, si une valeur est inconsistante pour une variable DF a un moment
donne, elle ne doit pas (re)devenir consistante par la suite :
Denition 2.13 Un domaine r est monotone (resp. anti-monotone) ssi
8S; S 0 S 0 v S ) rS rS (resp. rS rS ).
Une contrainte c X in r est (anti-)monotone ssi r est (anti-)monotone.
0
0
Nous pouvons alors imposer que l'ajout d'une contrainte c ne puisse se faire que si c est
monotone (i.e. tout store S ne contient donc que des contraintes monotones). De ce fait,
le domaine de toute variable X 2 Vd est monotone.
Denition 2.14 Un store S est consistant ssi il ne contient aucune variable de domaine
vide, i.e. 8X 2 Vd XS 6= ;.
Denition 2.15 Une variable X est instanciee a l'entier n dans un store S ssi XS =
fng.
On dit aussi que X est clos dans S (note ground(X )). On etend de maniere evidente cette
denition a un domaine et a une contrainte.
2.3.4 La relation de satisfaction
Denissons maintenant la relation de satisfaction au coeur de notre systeme de contraintes.
Denition 2.16 Un store S satisfait une contrainte c X
tout store
S0
plus contraint que S , i.e.
S ` c ssi 8S 0 S 0 v S ) XS rS
0
Un store S contredit une contrainte c X
in
in
r ssi c est vraie dans
0
r ssi S satisfait :c, i.e. S ` X
r.
in -
Gr^ace a cette relation nous pouvons denir une equivalence entre contraintes permettant
d'assurer que deux contraintes fournissent les m^emes tuples de variables comme solutions.
Denition 2.17 Deux contraintes c1 et c2 sont equivalentes ssi 8S S ` c1 , S ` c2.
Proposition 2.1 Si S ` c alors S [ fcg , S
CHAPITRE 2. LA PROGRAMMATION LOGIQUE PAR CONTRAINTES
23
Preuve :
montrons la proposition contraposee.
Supposons que S [ fcg 6, S , du fait que S [ fcg v S on en deduit que S [ fcg = S .
Autrement dit 9Y YS[fcg YS (i.e. Y est reduit par l'ajout de c).
Soit c X in r, il est evident que X a aussi ete reduit (sinon aucune autre variable
n'aurait ete reduite). On en conclut que rS XS ce qui implique que S 6` c.
2
Soit Contr notre ensemble de formules atomiques (la constante vraie correspondant a
X in 0..infinity et faux a X in 1..0) et ` la relation de satisfaction denie ci-dessus.
Montrons que (Contr; `) est un pre-systeme de contraintes.
Proposition 2.2 ` verie (Struct), (Cut) et est generique.
Preuve :
(Struct) : soit S = S0 [ fX in rg il nous faut montrer que S ` X in r.
Il sut de verier que 8S 0 S 0 v S ) XS rS .
Ceci est trivialement verie car S = T [ X in r ] S0 donc tout S 0 v S contient X in r
du fait de la version (b) (cf. semantique de Tell) assurant que XS rS .
(Cut) : il nous faut prouver que si S1 ` c1 et S2 [ fc1g ` c2 alors S1 [ S2 ` c2 .
On a S1 [ S2 [ fc1g v S2 [ fc1g.
Sachant que S2 [ fc1g ` c2 et du fait que S1 ` c1 ! S1 , S1 [ fc1g (proposition 2.1)
on en conclut que : S1 [ S2 ` c2.
` est generique : il nous faut montrer que si S ` c alors S [n=X ] ` c[n=X ].
Notons que S [n=X ] , S [ fX =ng
et que c[n=X ] n'est rien d'autre que la contrainte c pre-evaluee dans fX =ng.
Montrons donc que si S ` c alors 8S 0 S 0 v S [ fX =ng ) XS [fX =ng rS [fX =ng .
Du fait que S 0 v S [ fX =ng
ceci revient a montrer que si S ` c alors 8S 0 S 0 v S [ fX =ng ) XS rS .
Or ce n'est la qu'un cas particulier de : 8S 0 S 0 v S ) XS rS (i.e. S ` c)
du fait que S [ fX =ng v S .
2
0
0
0
0
0
0
0
0
0
0
Soit D la cl^oture par quantication existentielle et pour la conjonction de Contr. Par souci
de simplication on notera aussi ` la cl^oture par les regles d'inferences de notre relation de
satisfaction. Le theoreme 2.1 nous indique que FD=(D; `) est un systeme de contraintes.
Chapitre 3
Implantation de wamcc
Dans cette partie, nous detaillerons l'implantation de wamcc, le langage Prolog de base
sur lequel est construit clp(FD). La solution proposee etant basee sur l'incontournable
machine abstraite de Warren (WAM), nous commencerons par son etude. Apres quoi nous
nous poserons le probleme de l'execution du code abstrait obtenu pour aboutir a la solution
retenue : traduire Prolog vers C. Une analyse des performances terminera ce chapitre.
3.1 La machine abstraite de Warren
Jusqu'en 1983 la compilation de Prolog semblait reservee a quelques illumines et pour le
commun des implanteurs il y avait contradiction dans les termes \Prolog" et \compilation".
La revelation de la WAM [75] a reellement rendu abordable la compilation de Prolog par
tous. Et bien que certaines alternatives plus optimisees aient ete proposees (ex. la BAM
[73]), la WAM reste un standard gr^ace a sa simplicite et son ecacite. Le succes de la WAM
tient egalement au fait que sa conception permet des extensions aisees (ex. backtracking
intelligent, test d'occurrence, parallelisme, contraintes, etc...).
Nous nous proposons d'aboutir a la denition de la WAM en partant de la notion d'arbre de
recherche qui traduit la semantique operationnelle d'un programme Prolog. Cette demarche
a pour inter^et d'introduire les particularites de la WAM tout au long du cheminement, alors
qu'une presentation par enumeration du jeu d'instructions necessite autant de digressions
le contenu de ce chapitre a ete publiee dans [23].
24
CHAPITRE 3. IMPLANTATION DE WAMCC
25
pour tenter de les justier. Notons que nous partons tout de suite de l'execution de Prolog
\complet", a l'inverse de [3] qui introduit plusieurs niveaux de programmes logiques (uniquement des faits clos, des faits quelconques, puis une clause par predicat, et, enn, les
predicats indeterministes).
Pour une autre presentation de la WAM le lecteur pourra se referer a [3].
3.1.1 La pile locale (ou de contr^ole)
Le lecteur etant suppose familier avec les concepts de base de Prolog, nous nous contenterons de rappeler brievement la notion d'arbre de recherche.
Denition 3.1 Un etat de recherche est un triplet < r; ; b > ou :
r est un numero de clause,
est une substitution (sous la forme fX1
t1 ; :::; Xn
tng),
b est une suite d'atomes B1; :::; Bp.
Denition 3.2 Un arbre de recherche standard a partir du but Q1 :::Qm est un arbre
ni ou inni, ou chaque noeud est occurrence d'un etat de recherche.
La racine est occurrence de < 0; fg; Q1:::Qm >.
Un noeud occurrence de < r; ; b > avec b vide est appele feuille succes.
Pour tout autre noeud occurrence de < r; ; b > et pour tout 0 ls de occurrence de
< r0; 0; b0 > alors :
l'application 0 ! r0 est une bijection de l'ensemble des noeuds ls de dans l'ensemble des numeros de clause r0 tel que B1 est uniable avec la t^ete de la clause de
numero r0 (Cr0 ).
est une feuille echec s'il n'y a aucun r0.
8 0 9A00
A01:::A0n une variante de Cr0 (renommage de clause) sans variables communes avec les buts des etats des noeuds anc^etres de 0 .
CHAPITRE 3. IMPLANTATION DE WAMCC
26
<0,{},p(s(0),0,R) p(A,B,R)>
<2,{X1
0,Y1
0,s(Z1)
<1,{X2
<1,{0
A,X3
s(0),s(0)
0,0
R},p(0,0,Z1) p(A,B,s(Z1))>
Z1},p(A,B,s(0))>
B},_>
succes
A
B
R
<2,{s(X3)
<1,{0
0
s(0)
s(0)
A,Y3
B,Z3
X3,X4
B},_>
succes
A
B
R
1) p(0,X,X).
2) p(S(X),Y,s(Z)):− p(X,Y,Z).
0,0
0},p(X3,B,0)>
s(0)
0
s(0)
but: p(s(0),0,R), p(A,B,R).
Figure 1 : exemple d'arbre de recherche standard
0 est l'unicateur minimal de B1 et A00 et b0 est le resultat du remplacement dans
0(b) de B1 par 0(A01 :::A0n).
l'ordre des ls de est l'ordre dans r0.
La gure 1 montre un exemple d'arbre de recherche standard. Le predicat p(X,Y,Z) a pour
lecture declarative X + Y = Z (un entier n etant code par le terme sn(0)). Le but lance
est p(s(0),0,R), p(A,B,R) qui peut se lire comme : \soit R le resultat de 1+0, quelles
sont les valeurs A et B telles que A + B = R".
Remarquons que la structure recursive de l'arbre se manifeste par le sens que l'on peut
donner au sous arbre associe a chaque noeud independamment de ses anc^etres. En eet,
a partir d'un noeud occurrence de < r; ; b >, l'on obtient un arbre de recherche standard
pour le but b.
De plus, la strategie standard (i.e. de Prolog) consiste en un parcours en profondeur d'abord
et de gauche a droite de l'arbre de recherche. Ce parcours, qui induit un ordre sur les solutions, devient aisement automatisable gr^ace a une pile (que nous appellerons pile de
CHAPITRE 3. IMPLANTATION DE WAMCC
27
contr^ole ou pile locale). Cette pile contiendra les triplets correspondants aux etats de recherche. Lorsqu'un echec survient (aucune t^ete de clause ne s'unie avec le litteral courant)
la procedure de backtraking devra depiler un certain nombre d'elements jusqu'a l'obtention d'un triplet pour lequel il existe une alternative. En vue de diminuer cette recherche,
donc d'acceder en temps constant a l'element susceptible de fournir une nouvelle solution,
il est possible de determiner, lors de l'avancee, si le noeud courant donnera lieu a un retour (backtracking) et, dans ce cas, d'empiler un element particulier appele point de choix.
Ainsi, la pile locale gere le contr^ole de Prolog que l'on peut separer en deux phases :
avancee : appels imbriques de procedure. Classiquement on utilise un environnement (ou bloc d'activation) ou sont stockees les variables (locales) de la clause et
les informations de contr^ole utiles a la sortie du bloc courant (i.e. de la clause). Ces
environnements sont similaires a ceux necessaires lors de l'implantation d'un langage
qui gere des variables locales (ex. C). Ainsi une clause peut ^etre comparee a une
fonction, et ses variables (nouvelles instances a chaque utilisation de la clause) a des
variables locales.
retour-arriere (backtracking) : consistant a reprendre le calcul a la derniere alternative
non encore exploitee. Ainsi un point de choix stocke les informations necessaires a la
reprise du calcul. On y trouve donc la sauvegarde de la plupart des registres de base
ainsi que l'adresse de la nouvelle clause a essayer.
Dans la WAM originale ces deux types de blocs de contr^ole sont entrelaces et donc chaque
bloc contient un pointeur vers le bloc precedent de m^eme type pour permettre le depilement.
Deux registres de base E et B pointent respectivement sur le dernier environnement et sur
le dernier point de choix. Ainsi la pile locale contient deux piles entrelacees avec deux
sommets de pile et la possibilite, a partir de chaque bloc, d'acceder au bloc precedent de
m^eme type. Lorsqu'un nouveau bloc doit ^etre alloue, le calcul de son adresse revient au
calcul du maximum entre les deux sommets de pile. La solution avec deux piles distinctes
(dites de contr^ole et de choix) est adoptee dans certaines implantations commerciales.
Toutefois l'utilisation d'une seule pile simplie la \synchronisation" des points de choix et
des environnements gr^ace au calcul du maximum decrit precedemment. Ainsi, lorsqu'un
environnement est libere alors qu'un point de choix a ete cree au-dessus de lui (par un des
ses ls), l'espace de cet environnement n'est pas reutilise puisque il sera necessaire lors du
backtracking.
CHAPITRE 3. IMPLANTATION DE WAMCC
28
3.1.2 La pile de restauration (ou trail)
Interessons-nous a present au probleme de la representation des substitutions. Le fait que
chaque etat < r; ; b > donne lieu a un environnement ou sont stockees les variables
locales de la clause revient a representer par un vecteur ou un element est associe de
maniere bi-univoque a une variable de la clause. Chaque element de [i] indique alors la
valeur associee a la ieme variable de la clause. La gure 1 nous permet de constater que
certaines substitutions aectent des variables n'apparaissant pas dans la clause courante.
Ceci est mis en evidence par des eches de gauche a droite. Ces liaisons aectent alors des
[i] d'un environnement anterieur a l'environnement courant engendrant ainsi un nouveau
probleme : lors du backtracking, si cet environnement est egalement anterieur a celui du
dernier point de choix, il faudra defaire ces liaisons pour pouvoir relancer, avec les m^emes
donnees, le calcul sur une autre alternative. Sur la gure 1, nous pouvons remarquer, au
sujet de la liaison de A avec 0 (branche de gauche du point de choix), que le fait d'ecrire
cette liaison a cet endroit (et non pas a l'etat racine ou appara^t la variable) indique bien
que, lors du backtracking, nous voulons \oublier" cette liaison (la meilleure preuve etant
que, dans la branche droite, A est lie a s(X3)).
La solution pour remettre a l'etat initial (non lie) de telles variables est d'utiliser une
autre pile, dite pile de restauration (ou trail ). Lorsqu'une variable anterieure au dernier
point de choix doit ^etre liee, nous empilons sa reference. Ainsi, a condition de memoriser
le sommet de cette pile dans les points de choix, il sut lors du backtracking de remettre
a l'etat \libre" toutes les variables referencees dans la trail entre le sommet actuel et celui
enregistre dans le dernier point de choix.
La gure 1 nous montre egalement que lorsque nous sommes en presence de deux variables,
rien n'indique comment orienter la substitution (est-ce X
Y ou X ! Y ? ). Nous
pouvons toutefois remarquer que, dans ce cas, une des variables appartient forcement a la
clause courante (renommee), c'est donc celle-ci qui enregistrera la liaison pour eviter un
eventuel empilement en trail. Ainsi :
La liaison entre deux variables s'eectue toujours de la plus recente vers la plus ancienne,
i.e. de celle d'adresse la plus grande vers celle d'adresse la plus petite.
Nous verrons par la suite d'autres avantages a une telle regle.
CHAPITRE 3. IMPLANTATION DE WAMCC
TUV
adresse donn
ee
Trail Unbound Variable
TOV
valeur
adresse donn
ee
Trail One Value
TMV
valeur n
.
.
.
valeur 1
n
adresse donn
ee
Trail Multiple Values
TFC
adresse code
29
Trail for Function Call
Figure 2 : structures de la trail
Dans la WAM originale, la trail est une pile a une seule entree permettant de stocker
les references (i.e. adresses) des variables a re-initialiser. Dans un souci d'extensibilite, la
trail que nous utilisons est a entrees multiples pour permettre d'associer de l'information
aux adresses a re-initialiser. En plus de la re-initialisation classique d'une variable Prolog
a l'etat libre, la trail de wamcc permet de re-initialiser un ou plusieurs mots avec des
valeurs sauvegardees. Enn, un entree \fonction" permet, au moment des re-initialisations,
d'invoquer une fonction C. Ces dierentes structures sont distinguees au moyen de mots
etiquetes1, c'est-a-dire qu'un mot memoire est une paire de la forme <etiquette,valeur>.
L'etiquette indiquant le type de donnee code par le champ valeur. La gure 2 detaille les
dierentes structures de re-initialisation.
3.1.3 La pile globale (ou heap)
D'apres ce que nous venons de voir, si une liaison implique une mise en pile de restauration, c'est qu'elle concerne une variable et un terme autre qu'une variable. Toutefois, nous
n'avons pas aborde la maniere dont sont stockes les termes (notamment ceux de hauteur
superieure a 1). En eet les vecteurs enregistres dans les environnements ne peuvent avoir
qu'une taille xe. Ou stocker les termes ? Une solution consiste a utiliser une nouvelle pile
(dite pile globale ou heap) pour stocker les termes structures. Elle a une structure de pile
1
traduction de tagged word.
CHAPITRE 3. IMPLANTATION DE WAMCC
30
dans la mesure ou les nouveaux termes sont empiles sur son sommet (pointe par le registre
H) et qu'elle est d
epilee lors du backtracking. Elle a une structure de tas du fait que des
liaisons existent aussi bien du bas de la pile vers le haut que du haut vers le bas.
3.1.4 La representation des termes
Les termes sont codes par de mots etiquetes comme dans la majorite des langages dynamiquement types (cf. [38] pour une etude complete de la codication des types dans de tels
langages). La gure 3 schematise la representation interne de chaque terme, a savoir :
variable : la partie valeur est une reference vers le terme auquel est liee la variable.
Une variable libre est simplement representee comme une auto-reference (i.e. si est son adresse, son contenu est <REF,>). Notons que l'aectation d'un tel mot
a un registre cree un lien du registre vers la variable. On appelle dereferenciation
l'operation consistant a suivre un cha^nage de variables liees jusqu'a ce qu'une variable
libre ou un terme dierent d'une variable soit rencontre.
constante : la partie valeur pointe dans une table de hash-code stockant toutes les constantes, ramenant ainsi la comparaison de deux constantes a la comparaison de deux
entiers.
entier : la partie valeur code l'entier.
liste vide : elle est simplement representee par la constante particuliere '[]'.
liste non vide : la partie valeur pointe une cellule du tas contenant le Car, la suivante
contenant le Cdr.
structure : la partie valeur pointe une cellule du tas contenant le foncteur (une adresse
dans la table de hash-code des constantes) et l'arite (nombre n de sous-termes).
Consecutivement a ce mot viennent les n mots etiquetes associes aux sous-termes.
Une des principales caracteristiques de la WAM est due au choix de representation des
termes composes (i.e. listes, structures) par recopie de structure. En eet, un terme est traite
dieremment suivant qu'il est decompose (acces a une instance deja existante) ou construit
(creation d'une nouvelle instance a partir d'un modele). Pour une liaison en decomposition
CHAPITRE 3. IMPLANTATION DE WAMCC
31
la variable sera simplement liee a l'instance deja existante alors qu'en construction la
variable est liee a une nouvelle copie du modele. La WAM denit ainsi deux modes lors de
l'unication de termes structures :
READ : correspondant a une decomposition. Dans ce cas le terme existe dans le tas
et un registre de base, nomme S, contient son adresse. L'unication des sous-termes
peut avoir lieu par rapport a S.
WRITE : correspondant a une construction. Dans ce cas le terme est construit sur
le sommet du tas (pointe par H).
Pour eviter l'utilisation d'un registre specique pour coder le mode le registre S est mis a
NULL en mode WRITE.
Argument n−1
:
Argument 0
structure
STC
liste
LST
Foncteur / Arite
Argument Cdr
entier
INT
constante
CST
entier
Argument Car
Heap
variable
REF
Table des constantes
Figure 3 : representation des termes dans la WAM
CHAPITRE 3. IMPLANTATION DE WAMCC
32
3.1.5 Registres
La WAM utilise les registres de base suivants :
PC
CP
E
B
BC
H
S
TR
A[i]
(Program Counter)
(Continuation Program)
(Environment)
(Backtrack)
(Backtrack Cut)
(Heap)
(Structure pointer)
(Trail)
(Arguments)
pointeur de programme.
pointeur de continuation.
pointeur sur environnement courant.
pointeur sur point de choix courant.
pointeur sur point de choix pour coupure.
pointeur sur sommet du heap.
pointeur sur structure a decomposer.
pointeur sur sommet de la trail.
banc de registres arguments (aussi nomme X[i]).
Le registre BC est une extension a la WAM permettant de prendre en compte la coupure
(!/0). Nous ne detaillerons pas la gestion de la coupure du fait que wamcc traite celle-ci de
maniere classique (cf. si besoin [3, 15]).
Les registres arguments (notes A[i]) servent d'interface pour les donnees entre l'appelant
et l'appele. Ces registres sont charges par l'appelant et sont unies avec la t^ete de clause
par l'appele, ce qui a pour eet de charger son environnement (les variables de la clause
recoivent en eet leurs valeurs gr^ace a l'unication). Si celle-ci reussit, la clause est utilisable ; pour chacun des predicats du corps les registres sont charges avec les arguments
appropries et le contr^ole est transfere au predicat concerne. S'il est possible de detecter les
variables telles qu'entre leur premiere et leur derniere occurrence aucun appel a un predicat ne sera fait, alors celles-ci peuvent ^etre gerees directement dans les registres plut^ot que
dans l'environnement. De telles variables sont qualiees de temporaires (notees X[i]) par
opposition aux variables gerees au travers de l'environnement qui sont dites permanentes
(notees Y[j]).
Denition 3.3 Une variable temporaire est une variable n'apparaissant que dans un seul
but, la t^ete et le premier but ne comptant que pour un.
Une variable est permanente si elle n'est pas temporaire.
Bien evidemment, il n'y a aucune dierence entre les registres A[i] et X[i] ; physiquement ce sont les m^emes, nous les distinguerons uniquement pour bien preciser les concepts
utilises. L'avantage des temporaires reside dans le fait que certaines instructions de chargement et de recuperation d'arguments pourront donner lieu a des instructions de copie
CHAPITRE 3. IMPLANTATION DE WAMCC
33
(par exemple charger A[1] avec le contenu du registre X[1]).
La gure 4 montre l'utilisation de la memoire dans la WAM.
(haut)
CP
Cont. Programme
E
Envir. Prec.
Y[0] Variable Perm.
:
Y[k] Variable Perm.
Environnement
Environnement
Point de Choix
ALT
CP
E
B
BC
H
TR
A[0]
Code Alternat.
Sauvegarde CP
Sauvegarde E
Pt choix prec.
Sauvegarde BC
Sauvegarde H
Sauvegarde TR
Sauvegarde A[0]
:
A[m] Sauvegarde A[m]
PILE DE CONTROLE
Point de Choix
HEAP
PC
CP
E
B
BC
H
S
TR
A[0]
Pntr. Programme
Cont. Programme
Environnement
Pt de Choix
Pt de Choix Cut
Heap
Pntr. Structure
Trail
Argument
:
A[n] Argument
Registres de Base
TRAIL
(bas)
Figure 4 : architecture de la WAM
3.1.6 Economie et recuperation memoire
De par son caractere non-deterministe, Prolog est sujet a des crises de gourmandise memoire
aigues. Il est donc important que l'architecture permette un maximum d'economie et de
recuperation d'espace dans les piles. Notons tout de suite que toute pile est en partie
recuperee lors d'un backtracking puisque son sommet est re-initialise a cette occasion.
CHAPITRE 3. IMPLANTATION DE WAMCC
34
En pile locale
D'apres ce qui a ete dit sur les variables temporaires, les faits et les clauses n'ayant qu'un
seul but ne necessitent pas d'environnement. Pour une clause ayant plus d'un but dans
son corps, l'environnement n'est indispensable que jusqu'a la n de la clause. Ainsi, est-il
possible de recuperer l'espace alloue a un environnement a la n de la clause (apres l'appel
du dernier but et avant de donner le contr^ole au code pointe par la continuation). Toutefois,
il est possible de mieux faire. En eet, en ce qui concerne le dernier but d'une clause,
les registres arguments sont charges et il est alors possible de recuperer l'environnement
avant d'appeler le dernier but au lieu de le faire apres. Notons, que cela ne presente un
inter^et que si aucun point de choix n'a ete genere apres cet environnement (au-dessus). Ceci
permet donc, en cas de determinisme, l'optimisation de l'appel terminal, comme cela se fait
pour les langages fonctionnels, puisque l'espace memoire utilise reste constant. Toutefois,
nous devons prendre garde a ce qu'aucune reference a l'environnement ne persiste apres la
recuperation de celui-ci. Pour prevenir de telles references fant^omes2 les imperatifs suivant
doivent ^etre respectes :
Dans la pile locale aucune reference ne doit exister du bas vers le haut.
Aucune reference ne doit exister de la pile globale vers la pile locale.
Attendu que les termes sont dans le heap, le seul cas pouvant engendrer des liaisons vers le
haut en pile locale est d^u a des liaisons entre variables permanentes. La regle qui consiste
a lier la variable la plus recente vers la plus ancienne (deja vue pour limiter les variables
mises en trail) convient tout a fait. Etudions le probleme concernant la liaison (d'une
variable) du heap avec un element de la pile locale. Si cet element est lui-m^eme une variable
alors la m^eme regle que precedemment peut resoudre le probleme a la condition de placer
physiquement le heap \en-dessous" (i.e. a des adresses inferieures) de la pile locale. Si
l'element a lier n'est pas une variable, il y a simplement recopie de cet element (du fait de
la recopie de structure). Enn, le cas ou un sous-terme est lie a une variable permanente
est resolu en liant la variable permanente a une nouvelle variable creee sur le tas (on parle
alors de globalisation de la variable permanente).
Toutefois, il subsiste un probleme lors de la recuperation de l'environnement. En eet,
considerons une variable permanente d'adresse telle que nous ne puissions nous assurer,
2
traduction de dangling reference.
CHAPITRE 3. IMPLANTATION DE WAMCC
35
de maniere statique (i.e. a la compilation), qu'elle ne sera pas libre lors de l'appel du dernier
but. Si c'est le cas, le chargement dans un registre A[i] se traduira par : A[i]:=<REF,>.
Or, le mot d'adresse sera libere et, lors de l'appel, A[i] contiendra une reference fant^ome.
Notons, que c'est egalement le cas pour une variable dont la dereference appartient a
l'environnement courant. Le chargement dans un registre argument de telles variables devra
prevenir ce probleme en globalisant si besoin ces variables. De telles variables sont qualiees
de dangereuses :
Denition 3.4 Une variable est dangereuse si elle est permanente, et que sa premiere
occurrence n'est ni en t^ete ni dans une structure.
Un variable permanente dont la premiere occurrence est en t^ete ne peut ^etre dangereuse
car l'unication de la t^ete la liera avec une adresse inferieure a l'environnement courant
(ou avec une constante). De m^eme une variable dont la premiere occurrence est dans une
structure, de par la representation des termes et du fait qu'il ne peut y avoir de liaison du
heap vers la pile locale, ne pourra referencer une adresse de l'environnement courant.
Warren a generalise l'optimisation de l'appel terminal par la technique du \tassage continu" (trimming) qui consiste en une recuperation de l'environnement au fur et a mesure
des appels des buts du corps de la clause. En eet, les variables permanentes n'ont pas
toutes la m^eme duree de vie. Une fois appele le but ou elles gurent pour la derniere fois, le
mot qui leur est associe peut ^etre recupere. Toutefois cette technique presente peu d'avantages en comparaison des inconvenients qu'elle induit (d'autant plus qu'elle est assujettie
a la m^eme condition de determinisme que precedemment). En eet, cette technique non
seulement complique la compilation mais elle impose que les environnements soient crees
\vers le haut", c'est-a-dire que E pointe la base de l'environnement dans lequel l'espace
pour les variables permanentes est alloue, des plus utilisees au moins utilisees. Un registre
supplementaire NB Y indiquant le nombre de variables permanentes encore en activite doit
toujours ^etre initialise avant l'appel d'un but. Dans un souci d'homogeneite, les points de
choix sont egalement representes vers le haut et doivent stocker l'arite du predicat ayant
donne lieu a une alternative (i.e. nombre de registres A[i] sauvegardes). Ainsi, lorsqu'un
nouvel environnement ou un point de choix doit ^etre cree, l'adresse physique de l'allocation s'obtient par :
CHAPITRE 3. IMPLANTATION DE WAMCC
Si
36
B>E
Alors :=B+ARITY(B)
Sinon :=E+NB Y
Finsi
Nous avons prefere ne pas implanter cette generalisation et representer les environnements
et les points de choix \vers le bas", E et B pointant le premier mot libre apres le bloc
comme tout pointeur de pile qui se respecte ! Ainsi, le calcul de l'adresse d'allocation
s'obtient simplement par :
:=max(B,E)
En pile de restauration
Nous ne pouvons rien recuperer en dehors du backtracking puisque cette pile contient justement les informations necessaires pour le prochain retour-arriere. L'occupation memoire de
cette pile est proportionnelle au nombre de points de choix. Aussi, serait-il bon de pouvoir
minimiser ce nombre.
En pile globale
La encore il n'y a pas de regle generale pour recuperer de l'espace pendant l'avancee.
Toutefois, le fait de recuperer les environnements entra^ne des trous dans cette pile. Prenons
le cas d'une variable permanente Y liee a un terme t du heap. Si aucune autre variable
n'est liee a t, lors de la liberation de l'environnement de Y, les mots occupes dans le heap
pour t sont desormais inutiles. Un \garbage-collector" peut donc ^etre mis en oeuvre sur
la pile globale. Le fait que la pile globale ne puisse ^etre recuperee qu'au backtracking a
conduit Warren a apporter une restriction a la notion de variables temporaires. En eet,
la gestion de certaines variables au travers des registres a pour inconvenient majeur de
ne pas pas orir de notion d'adresse du mot stockant la variable. Supposons alors que la
premiere occurrence d'une telle variable apparaisse dans l'appel d'un des buts du corps.
Cette variable devra donc ^etre chargee dans un registre et pour cela elle devra ^etre allouee
a l'adresse de maniere a pouvoir eectuer l'aectation : A[i]:=<REF,>. Du fait que
nous avons considere cette variable comme temporaire, seule la pile globale est susceptible
CHAPITRE 3. IMPLANTATION DE WAMCC
37
de l'accueillir (l'environnement courant n'ayant pas prevu de place pour elle). Warren a
decide de classer de telles variables comme permanentes et a donc apporte des restrictions
a la denition des temporaires. Les resultats empiriques ayant montre un gain memoire
marginal (s^urement inferieur aux progres realises en termes de congurations memoires
disponibles depuis 1983) nous n'avons pas adopte ces restrictions, privilegiant a nouveau
la simplicite de compilation.
Indexation
Comme nous l'avons vu precedemment pour l'optimisation de l'appel terminal et pour
l'occupation de la trail, il est souhaitable de diminuer le nombre de points de choix crees. Le
principe de l'indexation consiste a partitionner l'ensemble des clauses d'un m^eme predicat
en fonction des valeurs possibles de certains arguments (cles) et de generer des instructions
de gestion de points de choix pour chaque partition independamment. A l'execution, la
partition a utiliser est determinee en fonction de la valeurs des arguments. En ne s'occupant
pas des autres partitions nous diminuons les chances de creer des points de choix. Dans la
WAM, la cle d'indexation est constituee par le foncteur principal du premier argument de
la t^ete qui peut ^etre :
une variable,
un entier,
une constante (y compris la constante de liste vide),
une liste (non vide),
un terme structure.
En ce qui concerne les constantes, les entiers et les termes structures, une sous-partition
est realisee suivant la valeur impliquee.
CHAPITRE 3. IMPLANTATION DE WAMCC
38
3.1.7 Le jeu d'instructions
Du fait de l'utilisation de registres arguments pour assurer l'echange des donnees, un predicat peut ^etre compile de maniere independante de tout contexte. Ainsi, l'unite de compilation est le predicat. De plus, la compilation d'une des clauses du predicat ne necessite
aucune connaissance des autres clauses. Seules les instructions de gestion des points de
choix (i.e. indexation) necessitent la \vision globale" de toutes les clauses. La principale
caracteristique du jeu d'instruction de la WAM est basee sur l'etude statique du predicat
pour determiner a priori (statiquement a la compilation) des situations qui sans cela ne
seraient detectees qu'a posteriori (dynamiquement a l'execution). Pour chaque cas detectable une sequence d'instructions adaptee est generee. Par exemple, la gestion des points
de choix est prise en charge par des instructions specialisees (creation du point de choix
par la premiere clause, mise a jour par les autres excepte la derniere qui se charge de sa
suppression). De m^eme l'unication est decomposee en fonction des arguments de la clause
pour eviter l'appel a la fonction generale d'unication entre deux termes quelconques.
Les instructions de la WAM peuvent ^etre classees en quatre groupes :
instructions de recuperation de registres (unication),
instructions de chargement de registres,
instructions de contr^ole,
instructions d'indexation (gestion des points de choix),
Ce decoupage correspond a la presentation que nous allons faire du jeu d'instructions.
Celle-ci sera ascendante : partant de la compilation de la t^ete de clause et des dierents
buts du corps nous verrons comment les instructions de contr^ole permettent d'agencer les
codes obtenus. Apres quoi, nous expliquerons comment relier les instructions produites
pour chaque clause, gr^ace aux instructions d'indexation, de maniere a prendre en charge
la gestion des points de choix.
CHAPITRE 3. IMPLANTATION DE WAMCC
39
Instructions de recuperation de registres
Ces instructions sont produites par la compilation de la t^ete. Rappelons que l'unication
d'une t^ete de clause avec les arguments a deux buts distincts quoique realises conjointement : verier que la clause est utilisable et initialiser ses variables. En particulier, une
variable singleton3 ne demande aucun traitement puisque elle est uniable avec tout terme
et qu'il ne sert a rien de la renseigner du fait qu'elle n'a qu'une seule occurrence.
Comme indique precedemment, Warren a decompose l'unication pour des raisons evidentes de performances. En eet, lors de la compilation il est possible de distinguer les cas
suivant pour chaque argument de la t^ete :
premiere occurrence d'une variable (donc pas encore liee),
autre occurrence d'une variable, (donc liee),
constante,
entier,
liste vide (traitee comme une constante particuliere),
liste non vide (elle contient un Car et un Cdr),
structure.
Dans le cas de termes composes, l'unication des sous-termes est egalement decomposee
gr^ace a des instructions speciques. Dans la presentation qui suit nous notons le ieme
registre A plut^ot que A[i] pour des raisons de clarte. Quand a l'ecriture V, elle denote une
variable temporaire (i.e. X[j] ou permanente (i.e. Y[j]). Le code WAM genere pour unier
le ieme registre avec le ieme argument de la t^ete depend de ce dernier comme suit :
premiere occurrence d'une variable V :
get variable(V,A)
autre occurrence d'une variable V :
get value(V,A)
3
variable n'ayant qu'une seule occurrence dans la clause.
CHAPITRE 3. IMPLANTATION DE WAMCC
40
constante C :
get constant(C,A)
entier N :
get integer(N,A)
liste vide :
get nil(A)
liste non vide :
get list(A)
(unication du Car)
unify ... (unication du Cdr)
unify ...
structure F/N :
get structure(F/N,A)
unify ...
.
.
.
unify ...
(unication du premier sous-terme)
(unication du dernier sous-terme)
L'instruction get variable(V,A) eectue une simple copie de V dans A (ce qui peut donner
lieu a une optimisation si V est une variable temporaire). L'instruction get value(V,A)
applique la fonction d'unication sur V et A.
L'instruction get constant(C,A) verie que A est lie a la constante C ou a une variable
libre, auquel cas elle lie celle-ci a C. Les instructions get integer(N,A) procede de maniere
similaire.
L'instruction get nil(A) est une abreviation de get constant([],A).
La recuperation d'un terme structure utilise les instructions specialisees unify .... L'unication relative a un terme compose a deux comportements distincts suivant la nature de
l'argument a unier avec le terme :
si c'est un terme de m^eme foncteur et de m^eme arite, alors une vraie unication doit
avoir lieu sur les sous-termes (mode READ).
si c'est une variable libre, il y a creation du terme sur le heap et liaison de la variable
a celui-ci (mode WRITE).
CHAPITRE 3. IMPLANTATION DE WAMCC
41
L'instruction get list(A) dereference A ; si le mot obtenu est une variable libre elle est
liee a une liste creee sur le heap (les instructions unify ... creeront le Car et le Cdr). Si
le mot est une liste, les instructions unify ... unieront le Car et le Cdr.
L'instruction get structure(F/N,A) s'execute de maniere similaire.
Le code associe a la compilation d'un sous-terme depend de sa nature comme suit :
premiere occurrence d'une variable V :
si V n'est pas une variable singleton : unify variable(V)
sinon, soit K le nombre de variables singleton successives : unify void(K)
autre occurrence d'une variable V :
s'il est possible de determiner statiquement si sa premiere occurrence a conduit a
une liaison avec le heap (i.e. premiere occurrence de V en structure, ou, dans le cas
d'une temporaire, premiere occurrence en corps, du fait de la globalisation que cela
a entra^ne) : unify value(V)
sinon (nous devons eviter de lier le heap vers la pile locale) : unify local value(V)
constante C :
unify constant(C)
entier N :
unify integer(N)
liste vide :
unify nil.
L'instruction unify variable(V) lie V a *S4 en mode READ et a une variable libre empilee sur le heap en mode WRITE. L'instruction unify value(V) unie V a *S en mode
READ et empile V sur le heap en mode WRITE. Dans ce cas, il faut ^etre certain que cela
n'entra^nera pas de liaison du heap vers la pile locale. C'est la raison d'^etre de l'instruction
unify local value(V) qui, en mode READ, op
ere comme unify value(V) et, en mode
WRITE, commence par dereferencer V ; si le mot obtenu est une variable libre permanente
alors il est necessaire de la globaliser sinon il y a empilement de ce mot (et non pas de V)
sur le heap (cf. remarque au sujet de put unsafe value(V,A) ci-dessous).
4
Nous designerons par *S le mot contenu a l'adresse pointee par S.
CHAPITRE 3. IMPLANTATION DE WAMCC
42
L'instruction unify void(K) permet d'optimiser les variables singleton dans les structures.
En mode READ cette instruction ajoute K a S, en mode WRITE, elle empile K variables
libres sur le heap.
L'instruction unify constant(C), en mode READ, est similaire a get constant(C,*S),
et, en mode WRITE, empile la constante C sur le heap. L'instruction unify integer(N)
procede de maniere similaire.
L'instruction unify nil est une abreviation de unify constant([]).
Nous pouvons remarquer qu'il n'y a pas d'instructions d'unication propres aux soustermes composes. En recuperation de registres, ils sont unies avec de nouvelles variables
temporaires X' par unify variable(X'), celles-ci etant ensuite decomposees par les instructions get ...(...,X'). Ceci revient a aplatir les termes.
Par exemple : A[i] ! f(g(Z,a)) revient a A[i] ! f(X') et X' ! g(Z,a).
En ce qui concerne le chargement de registres, les nouvelles variables temporaires sont chargees par les instructions put ...(...,X') avant d'^etre uniees (dans le terme compose)
par unify value(X'). Ici aussi cela revient a une mise a plat des termes.
Par exemple : A[i]
f(g(Z,a)) revient a X' g(Z,a) et a A[i]
f(X').
Instructions de chargement de registres
Comme pour les instructions de recuperation, nous distinguerons le type de l'argument a
charger. Il sera necessaire de prendre en compte les variables dangereuses pour prevenir le
probleme de references fant^omes. Ici encore l'instruction depend du ieme argument d'un
but a charger comme suit :
premiere occurrence d'une variable V :
put variable(V,A)
autre occurrence d'une variable V :
si V n'est pas dangereuse ou si le but courant n'est pas le dernier : put value(V,A)
sinon : put unsafe value(V,A)
constante C :
put constant(C,A)
CHAPITRE 3. IMPLANTATION DE WAMCC
43
entier N :
put integer(N,A)
liste vide :
put nil(A)
liste non vide :
put list(A)
(chargement par recopie du Car)
unify ... (chargement par recopie du Cdr)
unify ...
structure F/N :
put structure(F/N,A)
unify ...
.
.
.
unify ...
(chargement par recopie du premier sous-terme)
(chargement par recopie du dernier sous-terme)
L'instruction put variable(V,A) initialise V et A avec une variable libre si V est permanente
sinon elle lie V et A a une variable libre empilee sur le heap.
L'instruction put value(V,A) eectue une simple copie de V dans A (ce qui peut donner lieu a une optimisation si V est une variable temporaire). Dans le cas d'une variable
permanente du dernier but, nous devons ^etre certain que la copie ne liera pas A a l'environnement courant, pour pouvoir recuperer l'environnement de facon s^ure. L'instruction
put unsafe value(V,A) prend en charge les variables dangereuses (susceptibles de cr
eer
des references fant^omes). Cette instruction dereference V et teste si le mot obtenu pointe
vers l'environnement courant (i.e. le mot est <REF,> avec > E). Dans l'armative, il
y a globalisation de la variable, sinon put unsafe value(V,A) copie ce mot (et non pas
V) dans A. Donc put unsafe value(V,A) ne se comporte jamais comme put value(V,A)
puisqu'elle copie le mot dereference dans A alors que put value(V,A) y copie V. Une
variable dangereuse ayant n occurrences dans le dernier but necessitera n instructions
put unsafe value(V,A). La premi
ere eectuera l'eventuelle globalisation et les autres copieront le mot dereference.
L'instruction put constant(C,A) initialise A avec la constante C et put integer(N,A)
procede de maniere similaire.
L'instruction put nil(A) est une abreviation de put constant([],A).
CHAPITRE 3. IMPLANTATION DE WAMCC
44
L'instruction put list(A) initialise A avec <LST,H> et le mode a WRITE de maniere a ce
que les instructions unify ... qui suivent recopient le Car et le Cdr sur le heap.
L'instruction put structure(F/N,A) eectue un traitement semblable.
Instructions de contr^ole
Le r^ole de ces instructions est de gerer les appels et retours de procedure ainsi que les
environnements. De par la denition de variables permanentes, les faits et les clauses dont
le corps est reduit a un seul but ne necessitent pas d'environnement. De plus, l'appel du
dernier but est distingue des autres dans la mesure ou il doit se charger du retour. En
fait, une instruction de retour existe (pour les faits), et nous pourrions considerer l'appel
du dernier but comme un appel quelconque suivi de l'instruction de retour, mais ce serait
moins performant. Tout ceci conduit aux instructions de contr^ole suivantes :
pour un fait p(...). :
< recuperation des registres >
proceed
pour une clause p(...):-
q(...).
:
< recuperation des registres >
< chargement des registres pour le but q >
execute(q)
pour une clause p(...):-
q1 (...), q2 (...), ..., qk (...).
allocate(N)
< recuperation des registres >
< chargement des registres pour le but q1 >
call(q1 )
< chargement des registres pour le but q2 >
call(q2 )
.
.
.
< chargement des registres pour le but qk >
deallocate
execute(qk )
:
CHAPITRE 3. IMPLANTATION DE WAMCC
45
L'instruction allocate(N) creee un environnement pour N variables permanentes. L'instruction deallocate permet de recuperer cet environnement.
L'instruction call(P/N) initialise CP a l'adresse qui suit le call et donne le contr^ole au
predicat P/N. L'instruction execute(P/N) procede pareillement sans toutefois modier le
contenu de CP prealablement restaure par l'instruction deallocate.
Le retour de procedure est assure par l'instruction proceed qui se contente donc d'aecter
CP a PC.
Instructions d'indexation
Ces instructions permettent de regrouper le code de chaque clause d'un predicat et sont
donc les instructions de plus haut niveau. Elles ont la responsabilite de gerer les points de
choix. Elles peuvent creer jusqu'a deux points de choix a l'entree d'un predicat. C'est pour
cette raison que l'on parle d'indexation a deux niveaux. Des indexations a un seul niveau
sont evidemment possibles mais occupent plus de place. Ces niveaux proviennent du fait
qu'un premier argument de t^ete de clause qui est une variable n'est pas discriminant pour
l'indexation.
Niveau 1 :
Les clauses C1; :::; Cn sont eclatees en groupes G0 ; :::; Gm tels que chaque groupe Gi
ne contienne qu'une clause dont le premier argument est une variable (a) ou que des
clauses dont le premier argument n'est pas une variable (b).
Le code suivant est alors genere :
si m = 0 :
sinon
< code pour G0 >
try me else(L1 )
< code pour G0 >
L1 :
retry me else(L2 )
< code pour G1 >
...
CHAPITRE 3. IMPLANTATION DE WAMCC
Lm :
46
trust me else fail
< code pour Gm >
L'instruction try me else(Lelse ) a la charge de la creation d'un point de choix dans lequel
elle designe comme alternative le code d'adresse Lelse. L'instruction retry me else(Lelse) a
pour r^ole de restaurer les registres de base et de mettre a jour le point de choix en precisant
que la nouvelle alternative est Lelse. Enn, l'instruction trust me else fail restaure les
registres de base et supprime le point de choix. Pour ces trois instructions le contr^ole se
poursuit par l'instruction suivante du code.
Niveau 2 :
Pour un groupe Gi du type (a), le < code pour Gi > ne contient que le code de son
unique clause. Pour un groupe de type (b) il contient les instructions de niveau 2
suivantes :
switch on term(Lvar ,Lcte ,Lint ,Llst ,Lstc )
s'il n'y a pas de constantes alors Lcte=fail, sinon le code suivant est genere :
Lcte :
switch on constant(N,[(cte1 ,Lcte1 ),...,(cteN ,LcteN )])
pour chaque constante ctej (j = 1::N ) le code suivant est genere :
si une seule clause a ctej comme 1er argument alors Lctej =Lj1 (ji etant le
numero de la ieme clause ayant ctej comme premier argument) sinon :
Lctej :
try(Lj1 )
retry(Lj2 )
...
trust(Ljk )
idem pour les entiers (Lint ) et les structures (Lstc).
s'il n'y a pas de listes alors Llst =fail, sinon le code suivant est genere :
(ou ji est le numero de la ieme clause ayant une liste comme premier argument) :
CHAPITRE 3. IMPLANTATION DE WAMCC
Llst :
47
try(Lj1 )
retry(Lj2 )
...
trust(Ljk )
Si Gi contient une seule clause Lvar =L1 sinon :
Lvar :
try me else(Lvar2 )
L1 :
< code clause 1 >
Lvar2 :
retry me else(Lvar3 )
L2 :
Lvarp :
Lp :
< code clause 2 >
...
trust me else fail
< code clause p >
L'instruction switch on term(Lvar ,Lcte ,Lint ,Llst,Lstc ) donne le contr^ole a l'adresse appropriee suivant le type du mot auquel A[0] est lie.
L'instruction switch on constant(N,[(cte1 ,Lcte1 ),...,(cteN ,LcteN )]) gere le contr^ole
suivant le type de constante gr^ace a une table qui, a une constante cte, associe une adresse
L. L correspond a l'adresse de la clause dont le premier argument est cte ou a celle d'un
code de niveau 2 (try, retry, trust) dans le cas ou plusieurs clauses ont cte comme
premier argument de la t^ete. Idem pour les entiers, les listes et les structures.
Les instructions
try(L), retry(L)
et
ont respectivement le m^eme r^ole que
try me else(Lelse ), retry me else(Lelse ) et trust me else fail ; la seule di
erence reside dans l'alternative stockee dans le point de choix : pour try(L), retry(L) et trust(L)
c'est l'instruction suivante et non pas Lelse. Le contr^ole, pour sa part, se poursuit par
l'instruction d'adresse L.
trust(L)
La table 3 montre le code compile du predicat p/3 utilise en gure 1.
CHAPITRE 3. IMPLANTATION DE WAMCC
48
p/3:
switch on term(L3,fail,L1,fail,L2)
L1:
switch on integer(1,[(0,L4)])
L2:
switch on structure(1,[(s/1,L6)])
L3:
try me else(5)
L4:
get integer(0,X[0])
get value(X[1],X[2])
proceed
L5:
trust me else fail
L6:
get structure(s/1,X[0])
unify variable(X[0])
get structure(s/1,X[2])
unify variable(X[2])
execute(p/3)
% p(0,X,X).
% p(s(X),Y,s(Z)):- p(X,Y,Z).
Tableau 3 : exemple de code WAM
3.2 Execution du code WAM : traduction vers C
Nous etudierons dans cette section diverses solutions pour executer le code WAM et celle
choisie pour wamcc : traduire Prolog vers C. Ce choix sera justie par rapport aux objectifs
que doit remplir wamcc et que nous denissons tout de suite.
3.2.1 Cahier des charges
En 1991, nous avons decide de developper un Prolog \maison" dans le but d'experimenter
diverses extensions. En eet, l'etude de Sicstus Prolog nous a vite convaincu du travail
colossal que representait la modication d'une implantation \professionnelle". Nous avons
donc deni un cahier des charges pour wamcc comprenant les points suivants (par ordre de
priorite) :
evolutivite : puisque ce Prolog devait servir de plate-forme experimentale. Ceci impliquait donc un moteur Prolog simple ne pouvant benecier d'optimisations poussees
CHAPITRE 3. IMPLANTATION DE WAMCC
49
qui font grossir le code (ex. l'emulateur de Sicstus ne necessite pas moins de 35000
lignes de C).
portabilite : de maniere a permettre une large diusion et eviter l'obsolescence inherente a l'attachement a une machine donnee.
ecacite : pour ne pas \disqualier" les futures extensions, en particulier les con-
traintes, sous le pretexte que le Prolog de base n'est pas assez ecace. En eet,
bien souvent un langage est d'abord juge sur les (contre-)performances qu'il ore sur
les \benchmarks" classiques et ensuite seulement sur les facilites d'expressions et les
nouveautes qu'il ore. Ainsi, nous nous etions xes comme objectif d'^etre aussi rapide
que la version 0.6 de Sicstus, celle-ci servant alors de mesure-etalon pour l'evaluation
des performances. Cette version etait basee sur un emulateur tres optimise ecrit en
C.
support de la modularite : permettant ainsi de decouper une application Prolog en
plusieurs modules. Ceci permet, dans un premier temps, de ne pas s'occuper des predicats predenis (built-ins) qui seront ecrits en Prolog par la suite dans des modules
separes.
3.2.2 Methodes classiques pour executer la WAM
Le code WAM genere par le compilateur necessite un traitement pour ^etre reellement
executable. Il existe trois methodes classiques pour executer du code WAM :
utiliser une machine Prolog,
utiliser un emulateur de code WAM,
produire du code natif pour la machine h^ote.
En ce qui concerne une machine Prolog, le code fourni par la compilation est directement
executable puisque ce code correspond au langage \assembleur" d'une telle machine. Toutefois, comme dans toute machine, il n'est pas possible de modier ce langage de plus bas
niveau donc nous ne pourrions etendre la WAM pour prendre en compte les contraintes.
CHAPITRE 3. IMPLANTATION DE WAMCC
50
L'emulation est generalement la premiere solution qui vient a l'esprit. Dans cette approche
le code produit (byte-code) est simplement vu comme des donnees qui seront traitees par
l'emulateur. Les avantages d'un emulateur resident dans sa simplicite d'ecriture (3000 lignes
de C pour une version non optimisee), dans sa portabilite s'il est ecrit en C et dans sa facilite
a creer et modier dynamiquement du code WAM. Ces avantages ont convaincu la plupart
des concepteurs de Prolog. L'inconvenient majeur de cette approche est evidemment le
surco^ut de l'emulation puisque, pour chaque instruction, nous n'echappons pas au cycle :
recherche, decodage et execution. Un autre inconvenient provient du fait qu'il est dicile
de fournir un executable autonome puisque l'emulateur doit ^etre present au moment de
l'execution, posant ainsi des problemes de distribution lies aux droits commerciaux limitant
la diusion d'un produit professionnel.
La production de code natif a des caracteristiques inverses de celles de l'emulation. L'ecriture d'un generateur de code natif est une t^ache dicile qui requiert une connaissance
approfondie de la machine cible. C'est a cette condition que les performances sont au
rendez-vous (en particulier sur les processeurs RISC). Bien entendu, de tels compilateurs
ne sont pas portables et l'adaptation a une autre architecture n'est pas si aisee ; la ou
une machine peut ^etre ecace telle autre peut avoir un comportement tres mediocre. D'un
autre c^ote l'ecriture d'un compilateur produisant du code natif comprend bon nombre de
parties classiques penibles a developper bien que les techniques adequates soient connues
(ex. allocateur de registres).
3.2.3 La solution adoptee : traduire Prolog vers C
Malheureusement, les objectifs de notre cahier des charges ne concidaient ni avec les
caracteristiques de l'emulation ni avec celles de la production de code natif. Aussi, avonsnous pense a la traduction de Prolog vers C qui, sur le papier, devait permettre de benecier
des avantages des deux approches. Ainsi, la portabilite serait assuree et, en n de compte,
du code natif serait produit (par le compilateur C) ce qui devait compenser le manque
d'optimisations par l'absence des phases de recherche et de decodage. En ce qui concerne
la modularite, celle de C permettrait de compiler des programmes Prolog separemment et
de les reunir au moment de l'edition de liens (les problemes de visibilite des predicats etant
resolus par les declarations C appropriees). Enn, le fait de compiler vers C permettrait
CHAPITRE 3. IMPLANTATION DE WAMCC
51
de benecier d'interfaces simples avec ce langage aussi bien qu'avec tout autre langage
compile et fournirait de \vrais" chiers executables.
Toutefois, nous ne disposions au moment de ce choix (1991) d'aucune reference dans le
domaine de la traduction de Prolog vers C. Aujourd'hui encore, trois ans apres, aucune
implantation de Prolog basee sur une traduction vers C n'est disponible en dehors de
wamcc. En revanche, dans ce laps de temps, cette approche a ete adoptee pour implanter
trois langages logiques deterministes avec gardes5 : Janus [39], KL1 [19] et Erlang [42]. Ils
utilisent tous des schemas de traduction dierents qu'il est interessant de comparer a celui
utilise dans wamcc en ce qui concerne Prolog \deterministe".
3.2.4 Le probleme du contr^ole de Prolog en C
Dans cette section nous nous concentrerons uniquement sur la maniere dont Janus, KL1,
Erlang et wamcc gerent le contr^ole. En eet, celui-ci est le point crucial de la traduction
vers C du fait que le code WAM est un code \a plat" ou tous les transferts de contr^ole
sont eectues a l'aide de simples branchements. Ce contr^ole a du mal a s'accommoder de
celui de C prevu au contraire pour supporter les structures de haut niveau que constituent
blocs et fonctions et, paradoxalement, peu fourni pour supporter du contr^ole de bas niveau.
Ainsi, le probleme majeur consiste a trouver un moyen ecace de traduire les branchements
WAM. Notre presentation se basera sur l'exemple suivant :
p:
allocate
call(q)
deallocate
execute(r)
/* p:- q, r. */
q:
proceed
/* q. */
Ce petit exemple met en oeuvre toutes les instructions de contr^ole de Prolog dans le
cas deterministe. Notamment la maniere de traduire les instructions call et execute
fera appara^tre comment sont geres les branchements directs (i.e. branchement a un label
precise) alors que la traduction de l'instruction proceed devra resoudre le probleme des
branchements indirects (i.e. branchement a l'adresse pointee par une variable, le registre
CP en l'occurrence).
5
classiquement appeles commited-choice languages.
CHAPITRE 3. IMPLANTATION DE WAMCC
52
3.2.5 La methode Janus
Dans methode, un branchement WAM est traduit par un branchement goto C. Le fait
qu'un goto ne puisse adresser que du code a l'interieur d'une m^eme fonction, conduit a un
programme C compose d'une seule fonction dotee d'une instruction switch pour simuler
les goto indirects. Ainsi, notre exemple donnera lieu a :
fct switch()
f
label switch:
switch(PC)
case p:
label p:
push(CP);
CP=p1;
goto label q;
f
case p1:
pop(CP);
goto label r;
g
g
case q:
label q:
PC=CP;
goto label switch;
.
.
.
/* p:- q,r . */
allocate
call(q)
:
deallocate
execute(r)
/* q. */
proceed
:
Cette methode est assez ecace, mais a pour inconvenient majeur qu'un programme donne
lieu a une seule fonction. Des lors, hormis pour les programmes \jouets" de quelques clauses,
cette methode engendre une fonction enorme que le compilateur C ne peut alors traiter en
un temps raisonnable (cf. [62]). Nous attribuons cela au temps (exponentiel) que necessite
l'allocateur de registres. Par ailleurs, la gestion de la modularite est dicile a mettre en
oeuvre du fait qu'elle necessite la consultation d'une table dynamique pour appeler un
predicat d'un autre module en vue de donner le contr^ole a la fonction \switch" de ce
module. De m^eme, la gestion correcte du backtracking lors de ces changements de contexte
n'est pas une t^ache facile. Ainsi, dans le cas ou la modularite est supportee, un appel
extra-modules sera beaucoup plus co^uteux qu'un appel intra-modules.
CHAPITRE 3. IMPLANTATION DE WAMCC
53
3.2.6 La methode KL1
Puisque la solution avec une seule fonction n'est pas realisable, il faut decouper le chier C
(i.e. le code WAM) en plusieurs fonctions. L'idee de traduire un predicat par une fonction
semble alors naturelle. La situation est la suivante : nous ne desirons eectuer que des
branchements et le decoupage en fonctions est obligatoire. Des lors, il faut executer des
appels de fonctions pour traduire les branchements. Toutefois cela ne sut pas puisque,
avant la n d'une fonction appelee, un autre branchement (i.e. un autre appel de fonction)
aura lieu ayant pour eet de ne jamais retourner des fonctions invoquees (du point de vue
de C il n'y a que des appels de fonction imbriques). Le probleme est alors que les donnees de
contr^ole empilees par C ne sont jamais recuperees. Il est donc necessaire que chaque fonction
termine \proprement" par une instruction de retour. A charge a une fonction superviseur
d'eectuer le branchement prevu (i.e. continuation). Ceci conduit au code suivant pour
notre exemple :
fct supervisor()
f
g
while(PC)
(*PC)();
void fct p()
f
g
push(CP);
CP=fct p1;
PC=fct q;
/* p:- q,r. */
allocate
call(q)
:
void fct p1()
f
g
pop(CP);
PC=fct r;
void fct q()
f
g
PC=CP;
deallocate
execute(r)
/* q. */
proceed
CHAPITRE 3. IMPLANTATION DE WAMCC
54
Notons que le code ci-dessus peut ^etre optimise en supprimant le registre PC puisque
l'information qu'il vehicule peut ^etre retournee par les fonctions. Ainsi, une fonction eectue
un calcul \en ligne" et lorsqu'un branchement est requis elle se termine en retournant
l'adresse du code a qui le contr^ole doit ^etre donne.
L'analyse de cette methode montre qu'un branchement WAM donne lieu a un retour de
fonction (au superviseur) suivi d'un appel de fonction. Ce qui est bien evidemment beaucoup plus co^uteux qu'une instruction de branchement assembleur generee par un compilateur \code natif". L'appel extra-modules est desormais possible et n'est pas plus penalisant
qu'un appel intra-modules. La premiere version de wamcc utilisait cette approche et les performances obtenues etaient environ deux fois moindres que celles de Sicstus 0.6. En ce qui
concerne KL1, un compromis a ete trouve pour diminuer les appels et retours de fonctions.
En eet, tous les predicats d'un m^eme module sont places dans une seule fonction. Ainsi,
en presence d'un seul module KL1 a un comportement similaire a Janus. Dans ce cas,
la fonction superviseur, ne sert qu'a changer de contexte lors des appels extra-modules.
Ceux-ci devenant alors plus co^uteux que les appels intra-modules. Notons toutefois que
cette methode (avec ou sans l'optimisation \KL1") est la plus viable en restant 100%
ANSI C.
3.2.7 La methode Erlang
Ici aussi un predicat donne lieu a une fonction C. Toutefois, pour eviter les appels de
fonction, Erlang tire prot des possibilites oertes par le compilateur GNU C (gcc) en
matiere d'etiquettes. En eet, gcc considere celles-ci comme des objets de premiere classe et
permet donc de stocker l'adresse d'une etiquette dans une variable pointeur et d'eectuer,
par la suite, un branchement indirect a la valeur pointee par une telle variable. L'idee
consiste donc a traduire un branchement (direct ou indirect) WAM par un branchement
C indirect a l'interieur (i.e. un label) d'une fonction. Une table globale des adresses de
branchement est alors necessaire et doit ^etre initialisee par un premier appel de chaque
fonction. Ainsi, notre exemple donne lieu a :
CHAPITRE 3. IMPLANTATION DE WAMCC
void fct p()
f
g
jmp tbl[p]=&&label p;
jmp tbl[p1]=&&label p1;
return;
g
/* p:- q,r. */
(initialisation)
label p:
push(CP);
CP=&&label p1;
goto *jmp tbl[q];
allocate
call(q)
:
label p1:
pop(CP);
goto *jmp tbl[r];
deallocate
execute(r)
void fct q()
f
55
jmp tbl[q]=&&label q;
return;
label q:
goto *CP;
/* q. */
(initialisation)
proceed
Ainsi, tous les branchements se font de maniere indirecte gr^ace a des goto et a une table
globale des adresses. Dans le but de reduire le co^ut de cette indirection, Erlang procede
comme KL1 et Janus, en compilant dans une seule fonction les predicats d'un m^eme module. Ainsi, seuls les appels extra-modules necessitent la consultation de la table et seront
donc plus co^uteux que les appels intra-modules.
Notons toutefois que cette approche n'est valide que sous certaines hypotheses (non formulees dans [42]) concernant le code produit par gcc :
il ne doit pas necessiter de variables locales, i.e. tout le code doit pouvoir se contenter
des registres. En eet, le fait de se brancher au milieu de la fonction donc de sauter le
prologue de celle-ci, fait qu'il n'y a pas reservation d'espace dans la pile de C pour les
variables locales6 . Ce qui implique soit de n'utiliser que des variables globales soit de
toujours compiler avec l'optimiseur de registres (option -O2 de gcc) puisque sans cela
rappelons que le prologue d'une fonction decremente le pointeur de pile sp (la pile C pointe vers le
bas) du nombre de variables locales necessaires a la fonction
6
CHAPITRE 3. IMPLANTATION DE WAMCC
56
aucune variable locale n'est mise en registre. Et m^eme dans ces deux cas rien n'assure
que gcc n'aura pas besoin de variables locales pour ses calculs intermediaires.
aucune instruction associee au predicat ne doit ^etre \deplacee" avant l'etiquette de
branchement (ex. label p). Or il semble dicile de garantir cela. Considerons l'acces
a un element du tableau jmp tbl[]. Celui-ci se traduit par une instruction de chargement de l'adresse de base du tableau dans un registre R puis par une instruction
d'acces a l'element approprie. Si plusieurs acces au m^eme tableau ont lieu (ex. comme
c'est le cas dans label p et label p1), le compilateur peut decider de calculer une
seule fois le chargement de l'adresse de base dans le registre R et de placer cette
instruction en debut de fonction ou il suppose qu'elle sera toujours executee. Le probleme surviendra lorsque, par la suite, un branchement au milieu du code entra^nera
l'utilisation du registre R non encore initialise. Notons que de tels deplacements de
code sont courants et permettent d'optimiser le \pipe-line" des processeurs RISC
(qui est a l'origine des bonnes performances de ces processeurs).
3.2.8 La methode wamcc
Les trois solutions proposees jusqu'ici ont ceci en commun qu'elles se comportent similairement en presence d'un seul module, donnant alors lieu a une seule enorme fonction que le
compilateur C a du mal a compiler. De plus, l'appel extra-modules, quand il est possible,
est plus co^uteux que l'appel intra-modules. Ainsi, la maniere de decouper une application
en modules inuence-t-elle non seulement les temps de compilations mais egalement les
temps d'executions et ce, bien evidemment, de maniere inversement proportionnelle.
Des la seconde version de notre langage, notre objectif a ete de reussir a ce qu'un branchement direct WAM donne lieu, en n de compte, a un branchement direct de l'assembleur de
la machine. Du fait que le decoupage en fonctions est obligatoire, ces branchements doivent
atteindre du code a l'interieur d'un fonction. Le fait de vouloir produire des branchements
directs implique une resolution des adresses de branchement statique (a la compilation)
plut^ot que dynamique (a l'execution). Or, le couple forme par le compilateur et l'editeur
de liens sait se charger de cela en ce qui concerne les adresses de fonctions (i.e. de code).
Le compilateur genere des instructions avec \trous" lorsque qu'elles referencent l'adresse
d'une fonction non denie dans le source courant. L'editeur de liens, en presence de tous
CHAPITRE 3. IMPLANTATION DE WAMCC
57
les objets, se charge alors de combler les \trous" en resolvant les adresses. La solution consiste a inserer dans l'assembleur produit par le compilateur un label en debut de chaque
fonction gr^ace a une directive asm("..."). Pour manipuler l'adresse d'un de ces labels,
disons x, il sut de faire croire au compilateur que x est une fonction externe. Ce qui se
fait simplement en declarant un prototype pour la fonction x et en utilisant le symbole
(constante) x puisqu'en C le nom d'une fonction represente son adresse. Le compilateur
genere donc une instruction avec un \trou" qui sera resolue par l'editeur de liens a la vue
des noms de labels inseres et ce qu'ils soient dans le module courant ou non. Ainsi, le co^ut
de l'appel extra-modules est egal a celui de l'appel intra-modules. Tout ceci conduit a la
structure suivante :
void
void
void
void
label
label
label
label
p();
p1();
q();
r();
/* prototypes */
#define Direct Goto(lab)
#define Indirect Goto(p lab)
lab()
(*p lab)()
void fct p()
/* p:- q,r. */
f
g
asm("label p:");
push(CP);
CP=label p1;
Direct Goto(label q);
allocate
call(q)
:
void fct p1()
f
g
asm("label p1:");
pop(CP);
Direct Goto(label r);
void fct q()
f
g
asm("label q: ");
Indirect Goto(CP);
deallocate
execute(r)
/* q. */
proceed
CHAPITRE 3. IMPLANTATION DE WAMCC
58
Deux macros permettent d'eectuer les branchements directs et indirects. Le traitement
eectue par celles-ci depend de l'architecture. Par exemple sur une machine RISC :
Direct Goto(lab)
invoque simplement la fonction qui aurait pour nom lab.
Indirect Goto(p lab)
de p lab.
invoque simplement la fonction qui aurait pour adresse la valeur
En eet, sur une machine RISC (ex. Sparc, MIPS R3000,...), l'instruction d'appel de fonction transfere le contr^ole a l'adresse indiquee (comme un branchement) et initialise le
registre de continuation du processeur (pour le retour). Du fait de l'architecture, cette instruction s'execute aussi rapidement qu'un simple branchement. Comme elle n'empile rien,
nous pouvons l'utiliser pour eectuer un branchement. Le fait de proceder ainsi evite de
devoir inserer l'instruction de branchement dans l'assembleur. De plus, les instructions de
branchement RISC ne peuvent acceder qu'a du code relativement proche de l'instruction
courante (le deplacement par rapport a celle-ci etant code sur quelques bits). Or nous
pouvons acceder a du code potentiellement tres eloigne du fait de la gestion des modules.
L'instruction d'appel de fonction n'est pas soumise a cette limitation. Enn, signalons que
le fait que ce soit le C qui genere l'instruction d'appel de fonction lui permet d'optimiser
le delay slot pour tirer prot du \pipe-line". Rappelons que sur certains processeurs RISC,
l'instruction se trouvant apres un branchement ou un appel de fonction (delay slot) est
toujours executee car elle a deja ete chargee dans le pipe-line. Les compilateurs essayent
d'utiliser cette particularite en deplacant une instruction pertinente apres le branchement.
Quand cela n'est pas possible c'est l'instruction vide nop qui est emise.
Remarques recapitulatives :
desormais les branchements directs s'eectuent aussi rapidement que possible puis-
qu'ils donnent lieu a de vraies instructions de branchement de l'assembleur de la
machine (ou, dans le cas d'un RISC, a une instruction d'appel de fonction de m^eme
co^ut).
l'appel extra-modules n'est pas plus co^uteux que l'appel intra-modules.
comparee aux approches precedentes ou tous les predicats d'un m^eme module donnaient lieu a une seule fonction, ici une clause donne lieu a autant de fonctions qu'il
CHAPITRE 3. IMPLANTATION DE WAMCC
59
y a de buts dans le corps de la clause (la t^ete et le premier but comptant pour un).
Donc le code produit est beaucoup plus rapide a compiler (cf. section 3.4).
les particularites de gcc ne sont pas utilisees en ce qui concerne le contr^ole et un
compilateur classique permettant l'insertion de code assembleur sut.
chaque fonction n'a qu'un seul point d'entree \direct" qui se trouve au tout debut
donc seul le prologue est \saute". Pour permettre l'utilisation de variables locales,
un espace de travail susamment grand est reserve dans la pile C une fois pour
toutes avant le lancement du calcul en denissant un tableau dans une fonction
intermediaire. Ainsi, le pointeur de pile C sp pointe la n du tableau et ne sera
plus modie puisque les prologues ne seront pas executes. Donc, les variables locales
(referencees par rapport a sp) seront allouees dans l'espace de ce tableau.
la seule hypothese concerne donc le fait que le prologue ne s'occupe que de decre-
menter sp. Or ceci est generalement le cas excepte sur quelques machines ou le compilateur C reference les variables locales, non pas par rapport a sp mais par rapport
a un autre registre fp (frame pointer) qui est aecte en debut de fonction a la valeur
de sp. Cette facon de proceder ne sert qu'a aider le debugger C et il est generalement
possible de la desactiver gr^ace une option du compilateur (ex. -fomit frame pointer
en gcc). Dans le cas contraire il serait possible de generer une instruction assembleur
pour initialiser ce registre.
il est tout a fait possible d'executer de vrais appels de fonctions a l'interieur de
ces \pseudo-fonctions". En particulier les macros associees aux instructions WAM
s'expansent, pour la plupart, en appel de fonctions de la librairie de wamcc. Ceci
permet de privilegier la taille du code, donc la vitesse de compilation, au (leger)
detriment de la vitesse d'execution.
Etudions maintenant le code necessaire a l'amorcage du calcul qui vient d'^etre decrit. Soit
a executer un premier predicat (generalement un top-level) d'adresse p lab :
CHAPITRE 3. IMPLANTATION DE WAMCC
#include <setjmp.h>
jmp buf jumper;
void Label Success();
void Label Fail();
Bool Call Prolog(WamCont p lab)
f
Create Choice Point();
ALTB(B)=Label Fail;
CP=Label Success;
ret val=setjmp(jumper);
if (ret val==0)
Call Next(p lab);
g
Delete Choice Point();
return ret val==2;
60
void Call Next(WamCont p lab)
f
g
int t[1024];
Indirect Goto(p lab);
void Call Prolog Success(void)
f
g
asm("Label Success:");
longjmp(jumper,2);
void Call Prolog Fail(void)
f
g
asm("Label Fail:");
longjmp(jumper,3);
La fonction Call Prolog a pour r^ole de lancer l'execution du predicat d'adresse p lab.
Cette fonction commence par creer un point de choix pour y stocker l'adresse ou se brancher
en cas d'echec (Label Fail). Le pointeur CP (indiquant quel code doit ^etre execute apres
la reussite du predicat appele) est initialise a l'adresse Label Success. Enn, un setjmp
est eectue pour faire une copie de tous les registres de la machine, permettant par la
suite leurs restaurations et la reprise du calcul a l'instruction suivant le setjmp. Apres
cette sauvegarde, la fonction Call Next est appelee. Le r^ole de celle-ci est de reserver
susamment d'espace de travail dans la pile C pour les possibles variables locales (cf.
declaration du tableau t). Le contr^ole est alors donne au predicat a appeler. Ce dernier
s'execute comme indique precedemment. En cas de reussite (resp. d'echec) le contr^ole est
transmis au code d'adresse Label Success (resp. Label Fail) qui se contente de retourner
dans la fonction Call Prolog gr^ace a un longjmp dont le second parametre indique la
reussite avec la valeur 2 (resp. l'echec avec la valeur 3).
CHAPITRE 3. IMPLANTATION DE WAMCC
61
3.3 Caracteristiques de wamcc
3.3.1 Processus de compilation
mod1.pl
wamcc
mod1.c
wamcc
modk.c
...
gcc
libc.a
modk.pl
...
mod1.o
gcc
...
modk.o
libwamcc.a
linker
executable
Figure 5 : processus de compilation
Pour compiler une application, les elements suivants sont necessaires :
le compilateur wamcc qui, a partir d'un programme (module) Prolog genere le chier
source C qui lui est associe. Ce compilateur est lui-m^eme ecrit en Prolog.
un compilateur C acceptant l'inclusion d'instructions assembleurs et sa librairie de
fonctions standard. Le compilateur GNU C (gcc) convient tout a fait d'autant plus
qu'il est disponible pour pratiquement toute architecture.
un editeur de liens (fourni avec tout systeme d'exploitation).
la librairie associee a wamcc.
CHAPITRE 3. IMPLANTATION DE WAMCC
62
La gure 5 schematise les dierentes etapes necessaires a l'obtention d'un executable a
partir des modules Prolog mod1 ,..., modk . Ce schema peut s'enrichir aisement pour integrer,
au moment de l'edition de liens, du code ecrit en C ou en d'autres langages. Pour faciliter
le developpement d'une application, un programme est fourni avec wamcc permettant de
generer un chier de dependance pour cette application. L'utilitaire make d'Unix peut alors
prendre en charge la reconstruction de l'application en ne re-compilant que les parties
necessaires.
3.3.2 Gestion des piles
(haut)
pile
locale
pages liberees
pages
initialement
allouees
heap
trail
(bas)
Figure 6 : disposition des piles en memoire
Il est indispensable de contr^oler l'accroissement des piles de maniere a prevenir l'utilisateur
lorsque l'une d'entre elles deborde. Ce contr^ole est generalement eectue par le logiciel soit
a chaque fois qu'une allocation est necessaire (potentiellement plusieurs fois par clauses
pour le heap), soit a l'entree de chaque clause (mais il faut alors tester toutes les piles),
soit gr^ace a des instructions specialisees inserees dans le code WAM. Dans tous les cas
ce contr^ole est co^uteux d'autant plus que le materiel des machines recentes contient tout
ce qu'il faut pour le prendre en charge. En eet, rappelons que ces machines utilisent la
CHAPITRE 3. IMPLANTATION DE WAMCC
63
notion de memoire virtuelle. C'est-a-dire que le programmeur n'a pas a s'occuper de la
taille reelle ni des adresses physiques ; pour lui la memoire est lineaire, de tres grande taille
(ex. 4 Go sur une machine 32 bits). Lorsqu'une donnee doit ^etre lue/ecrite, le gestionnaire
de memoire detecte si la page ou elle reside est physiquement presente en memoire ou non
(on parle alors de defaut de page). Dans ce cas, le gestionnaire de memoire la charge apres
avoir, si besoin, recopie une autre page sur disque. Le gestionnaire declenche un signal
d'exception lors d'un defaut de page alors que celle-ci n'a pas ete alloue. L'idee consiste
donc a declencher un tel signal lors du debordement d'une pile. Pour cela, il sut que
toute pile soit suivie d'une page non allouee (cf. gure 6). Lors du debordement de la pile,
la tentative de lecture ou d'ecriture dans cette page declenchera un signal qui sera capture
par une fonction C ayant a charge de diagnostiquer quelle pile est fautive et d'emettre
un message d'erreur. La methode la plus simple consiste a utiliser la fonction mmap qui
permet de \mapper" un chier en memoire a partir d'une certaine adresse. Les lectures
et ecritures de ce chier se faisant simplement en lisant et en ecrivant dans la memoire.
Il existe generalement un \device" special (/dev/zero) qui rend toujours zero lors qu'une
nouvelle donnee est lue et dans lequel les ecritures ne sont pas repercutees. Ceci convient
tout a fait pour nos piles. Gr^ace a la fonction munmap chaque page suivant une pile est
rendue au gestionnaire de memoire. En cas d'absence des fonctions de la famille de mmap il
est possible d'utiliser celles permettant la gestion du partage de memoire entre processus
(shmget,...) puisqu'elles aussi permettent d'acquerir et liberer de la memoire. Enn, pour
les machines ne possedant aucune de ces facilites, les piles sont allouees gr^ace aux fonctions
d'allocation de la librairie standard de C (malloc) et le contr^ole de debordement se fait
par programme a l'appel de chaque predicat.
3.3.3 Fichiers de conguration
Pour permettre l'extensibilite et la portabilite du systeme, deux chiers de congurations
sont utilises, l'un pour decrire la WAM et l'autre pour decrire les particularites des dierentes machines supportees. Etudions tout d'abord le chier de denition de la WAM (cf.
table 4). On y trouve la description des :
registres : pour chaque registre sa priorite, son type et son nom sont species. Les registres de la WAM seront alloues si possible dans des registres de la machine cible en
CHAPITRE 3. IMPLANTATION DE WAMCC
64
respectant les priorites indiquees. Ceci est possible avec gcc qui permet d'acceder aux
registres machines. Un registre WAM ne pouvant ^etre assigne a un registre machine
est alloue au tout debut du tas (c'est aussi le cas pour les registres arguments).
types de donnees : l'on denit ici tous les types de mots <etiquette,valeur> pour les
donnees en heap. Plus precisement l'on nomme les etiquettes et l'on precise la nature
de la partie valeur qui peut ^etre un entier (signe ou non), une adresse dans l'une des
piles de la WAM ou une adresse dans l'espace alloue dynamiquement par C (i.e. par
malloc).
piles : pour chaque pile l'on precise son nom, sa taille par defaut et son sommet. Ces piles
sont allouees dans l'ordre ou elles sont decrites.
@begin regs
@reg 3 WamCont
@reg 2 WamWordP
@reg 2 WamWordP
@reg 4 WamWordP
@reg 1 WamWordP
@reg 2 WamWordP
@reg 9 WamWordP
@end regs
CP
E
B
BC
H
TR
S
/*
/*
/*
/*
/*
/*
/*
continuation pointer
last environment pointer
last choice point pointer
backtrack cut pointer
top of the heap
top of the trail
Unification pointer
*/
*/
*/
*/
*/
*/
*/
@begin tags
@tag INT int
@tag REF stack
@tag CST malloc
@tag LST stack
@tag STC stack
@end tags
/*
/*
/*
/*
/*
Integer
Reference
Constant
List
Structure
*/
*/
*/
*/
*/
@begin stacks
@stack trail
512 TR
@stack global 4096 H
@stack local 1024 ((B>=E) ? B : E)
@end stacks
/* Trail stack
/* Global stack
/* Local stack
*/
*/
*/
Tableau 4 : chier de description de la WAM
Ainsi, l'ajout de nouveaux registres (ex. pour les contraintes), de nouveaux types de donnees
ou de nouvelles piles ne necessite qu'une mise a jour de ce chier. La description des
CHAPITRE 3. IMPLANTATION DE WAMCC
65
dierents type de donnees permet l'adaptation automatique des tailles des parties etiquettes
et valeurs ainsi que de la denition des macros d'\etiquetage" et de \desetiquetage" des
mots memoires.
L'autre chier de congurations indique, pour chaque machine, les informations suivantes :
options C : options de compilation C particulieres pour cette machine.
labels asm : macros permettant de generer les labels assembleurs.
gotos : denition des macros telles que Direct Goto et Indirect Goto rencontrees plus
haut.
registres : registres utilisables pour la WAM (l'on precise aussi s'ils doivent ^etre sauvegardes lors des appels de fonction de la librairie C car detruits par ceux-ci).
gestion des piles : methode d'allocation des piles (malloc, mmap ou shmget) et le type
de contr^ole de debordement a eectuer (par logiciel ou par materiel).
Lors de l'installation sur une machine donnee, un programme C se charge de congurer le
systeme a partir des deux chiers. Il genere alors de nouveaux chiers d'en-t^ete C permettant d'installer tout le systeme. Cette maniere de proceder permet d'ecrire la plupart du
code de maniere independante de la machine. Par exemple, qu'un registre WAM puisse ^etre
alloue a un registre machine ou non, le m^eme nom (precise dans le chier de description
de la WAM) peut ^etre utilise par la suite. C'est a la charge du programme de conguration de generer les bonnes denitions (de registres ou de macros) pour permettre cette
transparence.
3.3.4 Gestion de la modularite
Un chier source Prolog constitue un module et il est donc possible de decomposer une
grosse application en plusieurs modules. Les points importants du systeme de modules
sont :
chaque module a son propre espace de noms de predicats ce qui est un point important
pour le developpement de grosses applications.
CHAPITRE 3. IMPLANTATION DE WAMCC
66
le systeme de modules de wamcc est base sur les procedures, ce qui signie que seuls
les predicats sont locaux a un module alors que les termes sont communs a tous les
modules.
le systeme de modules est \plat" et non pas \hierarchique", tout module est visible
des autres modules.
aucun surco^ut n'est d^u a l'appel d'un predicat se trouvant dans un module dierent
de celui de l'appelant.
chaque predicat (deni par l'utilisateur ou predeni) appartient a un seul module.
par defaut un predicat n'est visible que dans le module ou il est deni (i.e. il est
prive) sauf si ce predicat a ete declare comme etant public auquel cas il est visible
dans tous les autres modules.
un predicat public peut ^etre localement redeni dans un module.
parmi tous les modules composant une application, l'un d'entre eux doit ^etre declare
comme etant le module principal.
Ces caracteristiques sont celles de la plupart des Prolog qui gerent les modules et semblent correspondre avec ce que denira la future norme ISO. Il est a remarquer que ces
caracteristiques s'accommodent tres bien de la compilation vers C puisque C a des regles
de visibilite similaire en ce qui concerne les fonctions (publiques ou privees) et les donnees
dynamiques (visibles par tous).
3.4 Evaluation de wamcc
Dans tout ce qui suit, les tailles de programmes sources sont indiquees en nombre de lignes
(lignes vides et commentaires compris), les tailles d'objets et d'executables en Ko (tables
des symboles non incluses) et les temps d'execution en secondes (temps systeme non inclus)
mesures sur un Sparc 2 (28.5 Mips).
CHAPITRE 3. IMPLANTATION DE WAMCC
67
3.4.1 Les fonctionnalites du systeme wamcc
Du point de vue de l'utilisateur, wamcc ore les facilites suivantes :
un compilateur Prolog vers C.
une gestion de la modularite permettant le developpement d'applications importantes.
un ensemble de predicats predenis. En plus des predicats classiques (entrees-sorties,
arithmetique, manipulation de termes, test de types, contr^ole, gestion de listes, operateurs,...) wamcc ore des extensions non declaratives telles que variables globales,
aectations destructives \backtrackables" ou non, tableaux,...
la possibilite d'inclure du code C.
un \top-level" permettant de charger du code dynamiquement. Ce mode interprete
est particulierement pratique en phase de mise au point.
un debugger Prolog (similaire a ceux de Sicstus ou Quintus).
un debugger WAM permettant de verier/modier les structures de base de la WAM.
Ceci est tres utile lorsque la WAM doit ^etre modiee/etendue.
un utilitaire de generation de chiers pour make.
Le compilateur wamcc traduisant un module Prolog en un source C est entierement ecrit
en Prolog (3000 lignes). Il est d'ailleurs \auto-amorce"7 pour fournir un executable de 400
Ko en moins de 5 minutes.
En ce qui concerne la librairie de wamcc (cf. section 3.3.1) elle comprend :
7
les fonctions dependantes de la machine (ex. allocation de piles) (600 lignes de C).
les fonctions d'executions des instructions WAM (2500 lignes de C).
les fonctions de gestion de table de hash code (500 lignes de C).
les fonctions de gestion des atomes, des predicats et du code dynamique (i.e. assert,
retract, consult,...) (2000 lignes de C).
traduction de \bootstrapped".
CHAPITRE 3. IMPLANTATION DE WAMCC
68
les fonctions du debugger Prolog et WAM (2700 lignes de C).
les predicats predenis qui sont en majorite ecrits en Prolog (2300 lignes), le C etant
utilise pour le code de bas niveau.
La taille de cette librairie est de 160 Ko (dont 130 Ko pour les predicats predenis). Ainsi,
la taille d'un executable correspondra a la somme des tailles des dierents modules plus
160 Ko de librairie plus environ 30 Ko de librairie C.
3.4.2 Le jeu de benchmarks
Lignes
Programme
boyer
browse
cal
chat parser
crypt
ham
meta qsort
nand
poly 10
queens (16)
queens n (8)
queens n (10)
reducer
sdda
sendmore
tak
zebra
395
111
202
1184
96
90
146
574
112
95
79
79
388
327
66
35
57
Temps de Taille de Taille de
Temps
compilation l'objet l'executable d'execution
64.0
48
240
3.450
21.0
12
208
4.020
18.0
12
208
0.300
290.0
132
328
0.980
16.0
10
200
0.016
14.0
10
200
4.330
18.0
10
200
0.045
202.0
76
264
0.120
16.0
11
200
0.300
7.0
3
192
2.440
9.0
5
200
0.700
9.0
5
200
13.680
50.0
37
232
0.270
32.0
23
216
0.015
12.0
8
200
0.230
5.0
2
192
0.550
9.0
6
200
0.260
Tableau 5 : performances de wamcc (temps en sec.)
La table 5 presente les performances de wamcc sur un jeu de benchmarks classiques. Pour
chaque programme nous trouvons :
le nombre de lignes de Prolog du source.
le temps de compilation total du programme (Prolog!C, gcc, edition des liens).
CHAPITRE 3. IMPLANTATION DE WAMCC
69
la taille de l'objet obtenu et de l'executable nal.
le temps d'execution.
3.4.3
wamcc
versus des Prolog universitaires
Programme
boyer
browse
cal
chat parser
crypt
ham
meta qsort
nand
poly 10
queens (16)
queens n (8)
queens n (10)
reducer
sdda
sendmore
tak
zebra
facteur d'acceleration
wamcc
2.2
3.450
4.020
0.300
0.980
0.016
4.330
0.045
0.120
0.300
2.440
0.700
13.680
0.270
0.015
0.230
0.550
0.260
1.000
BinProlog XSB-Prolog SWI-Prolog
3.0
1.4.0
1.8.11
6.700
11.450
21.200
7.930
11.850
18.180
0.920
1.420
5.120
1.200
1.790
2.050
0.017
0.040
0.100
5.280
8.840
12.650
0.100
0.140
0.130
0.320
overflow
0.420
0.420
0.720
1.200
4.670
6.480
31.220
0.920
1.560
3.450
16.030
28.541
56.180
0.550
overflow
0.930
0.030
0.050
0.030
1.100
0.670
2.580
1.400
1.430
651.000
0.400
0.530
0.580
2.005
2.716
5.632
Tableau 6 : wamcc versus autres Prolog universitaires (temps en sec.)
Nous nous proposons dans un premier temps de comparer wamcc a d'autres concurrents
de sa categorie : les Prolog universitaires. Ces implantations ont generalement ete realisees
dans des universites a des ns de recherche par une seule personne et sont distribuees
gratuitement sur le reseau internet via ftp. Le choix des langages Prolog utilises pour la
comparaison a ete guide par la popularite de ceux-ci. Nous trouvons donc :
BinProlog 3.0 : ce langage est base sur la \binarisation" des clauses qui consiste principalement en un calcul ou les continuations sont rendues explicites. La WAM est
adapte a cette particularite et le code obtenu est emule. L'emulateur est ecrit en C.
CHAPITRE 3. IMPLANTATION DE WAMCC
70
XSB-Prolog 1.4.0 : ce langage est le successeur du populaire SB-Prolog. Il utilise aussi
un emulateur ecrit en C mais integre, en plus, des techniques d'evaluation partielle
pour specialiser les appels en partie instancies. La compilation peut donc ^etre assez
longue. Celle-ci est egalement capable de detecter certains cas de determinisme ainsi
que de compiler ecacement des structures de contr^ole telles que le if-then-else
Prolog.
SWI-Prolog 1.8.11 : ce Prolog se caracterise par une tres grande vitesse de compilation
et par la grande variete de predenis dont il dispose. Il est a ce jour l'un des Prolog
\amateurs" les plus utilises.
La table 6 montre les temps d'execution des dierents systemes ainsi que les facteurs
d'acceleration8 de wamcc par rapport aux autres systemes. Dans cette table, overflow
signie que trop de memoire est requise et ce malgre nos tentatives d'accro^tre les tailles
de piles. En moyenne wamcc est 2 fois plus ecace que BinProlog, 2.7 fois plus rapide que
XSB-Prolog et 5.6 fois plus rapide que SWI-Prolog (sans tenir compte de tak sur lequel
SWI-Prolog est extr^emement inecace).
3.4.4
wamcc
versus des Prolog professionnels
Ici nous comparerons wamcc a des Prolog ayant ete developpes par plusieurs personnes
sur plusieurs annees. Toutes ces implantations reposent sur des techniques d'optimisations
unanimement reconnues au sein de la communaute Prolog comme le prouve le grand nombre
d'articles (ICLP/ILPS) les presentant. Notre comparaison fera intervenir :
Sicstus : ce Prolog est tres populaire pour avoir ete une des premieres implantations
ecaces et de co^ut tres faible. Il est m^eme devenu une reference systematique en
matiere d'ecacite. Les versions initiales ne comprenaient qu'un emulateur ecrit en
C. Aujourd'hui, Sicstus a ete remanie et comprend en plus de l'emulateur un mode
\natif" sur certaines machines. Nous comparerons wamcc a la version emulee ainsi
qu'a la version \code natif".
Quintus : ce langage a, pendant longtemps, ete le plus rapide du marche, ce qui justie sa notoriete (et aussi le fait qu'un certain Richard O'Keefe soit l'un de ses
8
traduction de speedup.
CHAPITRE 3. IMPLANTATION DE WAMCC
wamcc
Programme
boyer
browse
cal
chat parser
crypt
ham
meta qsort
nand
poly 10
queens (16)
queens n (8)
queens n (10)
reducer
sdda
sendmore
tak
zebra
facteur d'acceleration
2.2
3.450
4.020
0.300
0.980
0.016
4.330
0.045
0.120
0.300
2.440
0.700
13.680
0.270
0.015
0.230
0.550
0.260
1.000
71
Sicstus Sicstus Quintus Aquarius
2.1
2.1
2.5.1
(emule) (natif)
4.940 2.350
2.850
2.750
6.630 2.020
3.340
1.380
0.890 0.540
0.500
0.290
1.130 0.500
0.650
0.350
0.027 0.013
0.017
0.010
5.050 2.090
3.000
0.950
0.048 0.021
0.050
0.015
0.200 0.084
0.130
0.040
0.320 0.150
0.250
0.070
4.930 1.280
2.820
0.610
0.980 0.370
0.580
0.130
18.200 7.250 10.780
2.250
0.270 0.120
0.270
0.100
0.023 0.016
0.017
0.010
0.630 0.170
0.280
0.080
1.020 0.390
1.620
0.060
0.300 0.230
0.230
0.160
1.582 # 1.624 # 1.026 # 3.398
Tableau 7 : wamcc versus Prolog professionnels (temps en sec.)
implanteurs...). Quintus est egalement base sur un emulateur mais celui-ci est ecrit
en assembleur. Notons que nous ne disposons que de la version 2.5.1 qui n'est pas la
plus recente.
Aquarius : c'est aujourd'hui le Prolog le plus rapide. C'est un systeme complexe qui genere
du code natif en passant par une machine abstraite originale plus performante que la
WAM (la BAM). Le compilateur eectue enormement de travail (analyse de ots de
donnees, interpretation abstraite, detection de determinisme,...). Mais en retour les
temps de compilation sont tres penalisants. La production de code natif a partir du
code BAM est aussi tres sophistiquee (elle comporte par exemple un re-ordonnanceur
d'instructions pour le Sparc,...). C'est peut ^etre ce c^ote \monstrueux" impliquant une
compilation tres lente qui a limite la diusion de ce produit.
La table 7 presente les temps d'execution de ces dierents systemes ainsi que le facteur
d'acceleration (ou de ralentissement si precede du symbole # ) de wamcc par rapport a
CHAPITRE 3. IMPLANTATION DE WAMCC
72
eux. Nous pouvons constater que notre objectif initial est largement atteint puisque wamcc
est 1.5 fois plus rapide que Sicstus emule. Par ailleurs, il est 1.6 fois plus lent que Sicstus
\natif" se situant ainsi entre les deux modes de compilation de Sicstus. En ce qui concerne
Quintus, wamcc soutient bien la comparaison puisqu'il est en moyenne aussi rapide. Enn,
wamcc est en moyenne 3.5 fois plus lent qu'Aquarius. Cet ecart est d^u en grande partie a la
tres bonne performance d'Aquarius sur tak (9 fois plus rapide que wamcc) qui detecte, lors
de la compilation, que le calcul est deterministe, qui optimise au mieux l'appel terminal et
qui est tres optimise pour les calculs entiers. Notons, que sur ce programme Aquarius est
2 fois plus rapide que la version equivalente ecrite en C ! Sans ce redoutable benchmark
wamcc est en moyenne 3 fois plus lent. En eet, sur des programmes utilisant davantage
les particularites de Prolog (unication et backtracking) l'ecart est moindre (ex. sur zebra
Aquarius est seulement 1.6 fois plus rapide que wamcc et sur boyer il est environ 1.3 fois
plus rapide).
Nous pouvons donc constater que wamcc, un systeme ecrit en quelques mois, se compare
tres honorablement a des systemes sophistiques ayant demande plusieurs homme-annees
de developpement. Dans tous les cas, les facteurs ne sont pas a la mesure de la taille des
systemes. En eet, si nous comparons la complexite des noyaux de Sicstus (35000 lignes de
C) et de wamcc (6000 lignes de C), le facteur 1:6 en faveur de Sicstus n'est pas si important.
D'autant plus que le compilateur de Sicstus necessite pas moins de 9000 lignes de Prolog
contre seulement 3000 pour wamcc. En ce qui concerne Quintus, l'utilisation intensive le
l'assembleur (noyau + certains predenis) donne lieu a un code beaucoup plus dicile
a maintenir que celui de wamcc sans pour autant que ses performances soient meilleures
que celles de notre systeme. Bien s^ur, les performances d'Aquarius sont remarquables mais
elles le sont principalement sur des programmes purement arithmetiques et deterministes.
Ce qui ne reete pas a notre avis les applications type de Prolog. Par contre, les temps
de compilation d'Aquarius nous semblent trop penalisants. Celui-ci necessite 38 minutes
pour compiler reducer, un programme de moins de 400 lignes. En comparaison, wamcc
n'a besoin que de 50 secondes pour fournir un executable qui certes est 2.7 fois plus lent
mais s'execute en dessous de la seconde. En ce qui concerne la taille des executables Peter
Van Roy lui-m^eme reconna^t qu'Aquarius genere un code 5 fois plus important que celui
de Quintus a cause de l'analyse globale. Nos mesures nous ont montre que ce code est en
moyenne 3 a 4 fois plus gros que celui produit par wamcc.
CHAPITRE 3. IMPLANTATION DE WAMCC
73
Enn, en dehors de toute consideration de temps d'execution ou d'espace disque, le point
important de wamcc reside dans sa minimalite due a son architecture \pyramidale", basee
sur le fait que des compilateurs performants savent se charger de certaines t^aches telles
qu'allocation de registres et autres optimisations. De plus, cette approche permet de s'adapter aux evolutions de ces outils. Par exemple, avec gcc il est desormais possible d'utiliser
les registres de la machine. De m^eme, lors d'un portage futur de wamcc sur MSDOS, nous
utiliserons turbo C puisque celui-ci est plus performant que gcc aussi bien en temps de
compilation qu'en qualite de code produit (d'apres une etude comparative du magazine
byte). L'avantage que procure le fait de \reutiliser" plut^ot que de \reecrire" est colossal.
D'un c^ote c'est une economie de temps qui peut alors ^etre consacree a des recherches
plus originales. D'un autre c^ote c'est l'assurance de ne pas engendrer des implantations
monstrueuses dont la maintenance exige des competences trop pointues.
Chapitre 4
Implantation de clp(FD)
Dans cette section nous nous interesserons a l'implantation de clp(FD), ce qui consistera
d'abord a etudier une extension de la WAM pour prendre en compte les variables et les
contraintes DF, puis a etudier l'integration de cette extension dans wamcc. A cette occasion
nous mettrons en evidence que le fait de compiler vers C nous permet d'obtenir du code
ecace pour les contraintes. Enn, nous evaluerons les performances de clp(FD).
4.1 Extension de la WAM
4.1.1 Integration des variables domaine
Pour permettre de raisonner avec des contraintes un nouveau type de donnees est ajoute :
les variables DF qui sont donc capables d'enregistrer des ensembles d'entiers. Ces variables
seront dierenciees des autres variables gr^ace a une nouvelle etiquette (FDV). De maniere a
permettre une plus grande transparence, clp(FD) rend ces variables compatibles avec les
variables Prolog et les entiers en permettant a l'utilisateur de fournir une variable Prolog
(consideree comme une variable DF de domaine 0::1) ou un entier n (considere comme une
variable DF de domaine n::n) la ou une variable DF est attendue. De ce fait, l'utilisateur
n'est pas contraint de declarer les variables DF utilisees (au contraire de ce qu'impose
CHIP). L'ajout de ce nouveau type de variable aecte legerement la WAM comme suit :
le contenu de ce chapitre a ete publiee dans [24, 25].
74
CHAPITRE 4. IMPLANTATION DE CLP(FD)
75
Manipulation de donnees
Les variables DF (tout comme les variables Prolog) ne peuvent ^etre dupliquees a l'inverse
de ce que fait l'algorithme de recopie de structure pour les termes composes. Ainsi, le
chargement d'une variable libre dans un registre cree une reference vers cette variable alors
que le chargement d'une constante consiste reellement en une recopie de cette constante
dans le registre. Remarquons que du fait de la representation des variables par des autoreferences, la m^eme instruction de copie peut ^etre utilisee aussi bien pour une variable
Prolog que pour un autre terme. En ce qui concerne le chargement d'une variable DF nous
avons alors deux possibilites :
utiliser a nouveau la m^eme instruction de copie. Dans ce cas il faut considerer les
mots du type <FDV,> comme ceux du type <REF,> lors des dereferenciations
pour atteindre le mot nal (eventuellement une auto-reference). Ce qui complique
donc l'algorithme de dereferenciation du fait qu'il a desormais deux types de mots
permettant les references (i.e. liaisons).
ne pas modier l'algorithme de dereferenciation mais prendre soin de ne pas recopier
les variables DF. Ainsi, lorsqu'un mot source Ms doit ^etre charge dans un mot (destination) Md si Ms est une variable DF alors Md est lie a Ms sinon Ms est physiquement
copie dans Md .
C'est cette deuxieme solution qui a ete adoptee dans clp(FD) car la dereferenciation est
une operation executee tres souvent et la premiere solution penaliserait les portions de
Prolog n'utilisant pas les variables DF. Ainsi, un mot de la forme <FDV,valeur> n'est
jamais dissocie des autres informations associees a une variable DF (domaine, liste de
dependances,...)1 . La partie valeur d'un mot <FDV,valeur> est alors inutile (ou peut ^etre
utilisee pour encoder une des informations de la variable). Dans notre cas nous utilisons
une auto-reference pour permettre, a la vue du seul mot <FDV,> de conna^tre l'adresse
de la variable DF concernee. Ceci permet de reutiliser les fonctions de manipulation
des donnees Prolog (ex. achage) qui acceptent en entree un mot etiquete. Il sut alors
d'etendre ces fonctions en prenant en compte le cas etiquette=FDV. En aucun cas il n'est
necessaire d'ajouter un argument aux fonctions pour passer l'adresse des variables DF.
au contraire de ce qui se passe pour les structures ou il y peut y avoir plusieurs mots <STC,> pointant
la m^eme structure qui se trouve alors \separee" de ces mots et reside a l'adresse .
1
CHAPITRE 4. IMPLANTATION DE CLP(FD)
76
Unication
Du fait de la compatibilite entre variables Prolog, variables DF et entiers, une variable DF
X peut ^etre uniee avec :
une variable Prolog Y : Y est simplement liee a X .
un entier n : ceci revient a ajouter la contrainte X
in
n..n .
une autre variables DF Y : ceci revient a ajouter les contraintes X
Y
in dom(
X ).
Y et
in dom( )
Sauvegarde et restauration des domaines
La prise en charge des DF entra^ne la necessite de pouvoir sauvegarder des valeurs dans la
trail (ex. domaines modies). Ce qui est deja supporte par notre architecture WAM. En
revanche, le fait que les domaines soient reduits en plusieurs etapes entra^ne que le critere
de sauvegarde standard de la WAM (i.e. adresse du mot a modier plus ancienne que celle
dernier point de choix) conduira a la mise en trail de chaque modication de domaine. Bien
evidemment, un seul domaine (l'original) necessite d'^etre sauvegarde par point de choix.
Pour cela nous utilisons la methode d'estampillage de [1] qui consiste a ajouter un nouveau
registre STAMP pour numeroter les points de choix ainsi qu'un champ pour chaque variable
DF enregistrant le numero de point de choix de sa derniere sauvegarde en trail. Le registre
STAMP est donc incr
emente lorsqu'un point de choix est cree et decremente a la suppression
de celui-ci. Dans ce cas, X doit ^etre sauvegarde en trail si Stamp(X ) 6= STAMP .
Indexation
La maniere la plus simple de gerer une variable DF du point de vue de l'indexation est
de la considerer comme une variable Prolog donc d'essayer toutes les clauses. Bien evidemment il serait possible d'eectuer une indexation plus complexe pour ne prendre en
compte que les clauses ayant des entiers ou des variables comme premier argument. Il serait
m^eme possible d'etendre les constantes de clp(FD) pour prendre en compte les intervalles
d'entiers permettant par la m^eme une ecriture declarative et ecace des fonctions denies
par morceaux.
CHAPITRE 4. IMPLANTATION DE CLP(FD)
77
4.1.2 Nouvelles structures de donnees
La prise en charge des contraintes DF necessite la denition de nouvelles structures de
donnees. Celles-ci seront toutes stockees dans le heap.
Representation des environnements
Un environnement represente le contexte dans lequel doit ^etre (re)executee une contrainte.
Plus precisement il contient l'adresse des variables DF et des parametres domaines et les
valeurs des parametres entiers (cf. gure 7). Un nouveau registre AF pointe alors l'environnement courant.
Argument n-1
Argument n-2
AF
!
:
Argument 0
pointeur sur variable DF
ou entier
ou pointeur sur domaine
Figure 7 : representation interne d'un environnement
Dans ce qui suit les variables DF sont referencees fv(i) (Frame Variable) et les parametres
fp(j ) (Frame Parameter) ou i et j sont des entiers servant d'indice dans l'environnement
(i.e. par rapport a AF). Ainsi, la clause (de l'exemple 2.1) :
'x=y+c'(X,Y,C):- X in min(Y)+C..max(Y)+C,
Y in min(X)-C..max(X)-C.
sera transformee a la compilation en le pseudo-code clp(FD) :
'x=y+c'(X,Y,C):- cr
eer un environnement a 3 el
ements,
charger X a l'indice 0 (X=fv(0)),
charger Y a l'indice 1 (Y=fv(1)),
charger C a l'indice 2 (C=fp(2)),
fv(0) in min(fv(1))+fp(2)..max(fv(1))+fp(2),
fv(1) in min(fv(0))-fp(2)..max(fv(0))-fp(2).
CHAPITRE 4. IMPLANTATION DE CLP(FD)
78
Representation des contraintes
CF
!
Cstr Address
Tell Fdv Adr
AF Pointer
adresse de la fonction C associee
adresse de la variable contrainte
adresse de l'environnement
Figure 8 : representation interne d'une contrainte
Une structure interne est associee a chaque contrainte X
informations suivantes (cf. gure 8) :
in
r et stocke les dierentes
l'adresse de l'environnement dans lequel doit ^etre activee cette contrainte.
l'adresse de la variable X (qui est contrainte).
l'adresse du code d'execution (qui se charge d'evaluer le domaine r pour ensuite
appeler la fonction Tell qui mettra a jour X ).
Un nouveau registre CF pointe alors la contrainte courante.
Representation des domaines
Il y a deux representations possibles pour un domaine :
Min-Max : seuls le min et le max sont maintenus. Cette representation est donc utilisee
pour des intervalles et peut stocker des valeurs incluses dans 0::infinity.
Sparse : en plus du min et du max un vecteur de bits est utilise pour stocker, en extension,
l'ensemble des valeurs du domaine. Cette representation permet de stocker des valeurs
incluses dans 0::vector max. Par defaut vector max vaut 127 et peut ^etre redeni
gr^ace a une variable d'environnement ou via le predicat predeni (fd vector max/1).
Les vecteurs ne sont pas dynamiques et ce predicat ne peut donc ^etre utilise qu'une
seule fois.
La representation initiale d'un domaine D est toujours une representation Min-Max et
devient une representation Sparse aussit^ot qu'un \trou" appara^t dans D (ex. a cause d'une
CHAPITRE 4. IMPLANTATION DE CLP(FD)
79
operation de complementation, d'une union,...). Lorsqu'un domaine est devenu Sparse il
ne reviendra pas a une representation Min-Max. Le domaine vide est represente avec un
min > max. Ceci permet, en mode Min-Max, d'eectuer l'intersection (operation la plus
utilisee) entre D1 et D2 sans tester si l'un ou l'autre des domaines est vide. En eet,
le resultat obtenu par : max(min(D1 ); min(D2 ))::min(max(D1 ); max(D2 )) retourne un
min > max dans le cas ou soit D1 soit D2 est vide.
Lorsque un domaine D, represente en Min-Max, passe a une representation Sparse certaines
valeurs peuvent ^etre perdues du fait que vector max est bien plus petit que infinity.
Pour gerer ces pertes inuant sur la completude des reponses, clp(FD) considere que ce
domaine a ete extra-contraint puisque tout se passe comme si D avait ete soumis a une
contrainte D in 0..vector max par le resolveur. Un indicateur est alors adjoint a tout
domaine pour indiquer s'il a perdu des valeurs (i.e. s'il est extra-contraint). Cet indicateur
est mis a jour par toutes les operations sur les domaines. Par exemple, l'union de deux
domaines est extra-contraint si au moins l'un des deux l'est (i.e. ou des deux indicateurs) ;
de m^eme, l'intersection de deux domaines est extra-contraint si les deux le sont (i.e. et des
indicateurs), etc... Ainsi, cette information elle aussi est propagee. Lorsqu'une contrainte
sur la variable X echoue, si le domaine de X est extra-contraint le solveur ache un message
pour prevenir que, du fait de la taille trop petite du vecteur de bits, certaines solutions
peuvent ^etre perdues (incompletude des reponses). L'utilisateur peut alors decider d'allouer
plus d'espace pour les vecteurs. Voici un exemple ou une variable domaine X a un domaine
extra-contraint, qui redevient \normal" par la suite (on considere que vector max = 127) :
Contrainte sur X
X in 0..512
X in 0..3:10..512
X in 0..100
Domaine de X Extra contraint ?
0::512
non
0::3 : 10::127 oui
0::3 : 10::100 non
Valeurs perdues
;
128::512
;
Dans cet exemple, quand la contrainte X in 0..3:10..512 est ajoutee, certaines valeurs
sont perdues (indicateur positionne a vrai). Toutefois, l'ajout ulterieur de la contrainte
X in 0..100 les elimine de toute facon donc l'indicateur retourne a faux.
L'exemple suivant met en evidence une incompletude du solveur :
CHAPITRE 4. IMPLANTATION DE CLP(FD)
Contrainte sur X
X in 0..512
X in 0..3:10..512
X in 256..300
80
Domaine de X Extra contraint ? Valeurs perdues
0::512
off
;
0::3 : 10::127 on
128::512
;
on
Attention...
Dans cet exemple, la contrainte X in 256..300 echoue du fait de la perte de valeurs
128::512 donc un message d'avertissement est ache.
Cette representation a ete adoptee car elle est simple, correcte et que les algorithmes
associes aux operations sur les domaines peuvent ^etre implantes ecacement. Il aurait ete
possible d'utiliser une representation par union d'intervalles qui n'aurait pas eu les m^emes
limitations, de m^eme qu'il aurait ete possible d'enregistrer une \base" permettant de
coder tous domaines \a trous" appartenant a l'intervalle :: + vector max. Toutefois, ceci
aurait nui a l'ecacite sans ^etre vraiment utile puisque dans la plupart des problemes les
domaines impliques sont petits et proches de 0. Si tel n'est pas le cas il est toujours possible
d'enoncer son probleme a une translation pres.
La gure 9 montre les representations internes d'un domaine.
01011011011010101
:
10100101101010010
10010011101001101
vecteur de bits
Ptr. sur vecteur
Ptr. sur vecteur
Ptr. sur vecteur
Max courant
Max courant
Max courant
Min courant
Min courant
Min courant
Extra contraint ?
Extra contraint ?
Extra contraint ?
domaine: vide
(min > max)
domaine: intervalle
(vecteur inutilise)
domaine: a trous
(vecteur alloue)
Figure 9 : representations internes d'un domaine
CHAPITRE 4. IMPLANTATION DE CLP(FD)
81
Representation des variables DF
Les informations associees a une variable DF X sont divisees en 2 parties (cf. gure 10) :
domaine : on y trouve le nombre d'elements et la representation du domaine (non vide).
Cette partie utilise une estampille pour eviter les mises en trail multiples.
listes de dependances : liste des contraintes dependant de X . En vue de diminuer le
nombre de contraintes activees inutilement plusieurs listes sont distinguees. En eet,
il est inutile de reveiller une contrainte ne dependant que de min(X ) lorsque seul le
max de X a ete modie. Les dierentes listes sont :
: liste des contraintes dependant de min(X ) et pas de max(X ).
Chain Max : liste des contraintes d
ependant de max(X ) et pas de min(X ).
ependant de min(X ) et de max(X ).
Chain Min Max : liste des contraintes d
ependant de dom(X ).
Chain Dom : liste des contraintes d
Chain Val : liste des contraintes d
ependant de val(X ) (i.e. a activer quand X
sera clos).
Chain Min
Notons qu'il est facile d'assurer qu'une contrainte n'appartient pas a plusieurs listes
pour une variable donnee. Cette partie utilise sa propre estampille car elle est mise
a jour independamment du domaine.
Les listes Chain Min, Chain Max et Chain Min Max referencent des contraintes utilisant une propagation du type partial lookahead. Les listes Chain Min et Chain Max
referencent les inequations et la liste Chain Min Max les equations. La liste Chain Dom
contient les contraintes utilisant un schema de full lookahead. La liste Chain Val reference les contraintes utilisant le forward checking (ex. disequations).
La gure 11 schematise les dierentes structures de donnees necessaires aux contraintes.
CHAPITRE 4. IMPLANTATION DE CLP(FD)
Informations
de dependances
Informations
sur le domaine
Chain_Val
Chain_Dom
Chain_Min_Max
Chain_Max
Chain_Min
Chains_Mask
Chains_Stamp
82
Listes de contraintes
dependant de la variable
Masque listes non vides
Estampille pour trail
Vector
Max
Min
Extra_Cstr
Domaine
Nb_Elem
Range_Stamp
Nombre d’elements du domaine
Estampille pour trail
FDV
variable DF
Figure 10 : representation interne d'une variable DF
Contraintes (X in r)
code calculant r
puis reduisant X
Bool contrainte()
{
eval(r);
Tell(X,r);
}
Ptr.
Adr. sur
codecode
de ’r’
Ptr.
Adr. sur
variable
var. X
’X’
Environnement
Environnements
Contraintes
dependant de
la variable
Argument n−1
Environnement
pour evaluer r
:
(ptr sur var DF
ou
valeur entiere
ou
ptr sur domaine)
:
Variables DF
Info. chainages
Argument 0
Info. domaine
FDV
Figure 11 : structures de donnees pour les contraintes
CHAPITRE 4. IMPLANTATION DE CLP(FD)
83
Registres
En vue de gerer les dierentes structures de donnees presentees ci-dessus les registres
suivants sont necessaires :
CC
(Constraint Cont.) pointeur de continuation apres contrainte.
STAMP (Stamp)
compteur d'estampilles des points de choix.
BP
(Base Pointer)
pointeur de debut de la le de propagation.
TP
(Top Pointer)
pointeur de n de la le de propagation.
AF
(Argument Frame) pointeur d'environnement courant.
CF
(Constraint Frame) pointeur de contrainte courante.
T[i]
(Terms)
banc de registres entiers.
R[i]
(Ranges)
banc de registres domaines.
Le registre CC sert de registre de continuation lors de l'appel des contraintes. L'ajout de ce
registre permet de compiler une contrainte X in r comme un predicat inline (ne donnant
pas lieu a un appel classique) ce qui evite de devoir sauvegarder CP.
Le r^ole du registre STAMP est de numeroter les points de choix pour eviter les mises en trail
multiples (cf. section 4.1.1).
Les registres BP et TP pointent les extremites de la le de propagation.
Les registres AF et CF designent respectivement l'environnement courant et la contrainte
courante (cf. section 4.1.2).
Enn, un banc de registres T[i] pouvant stocker des termes (des entiers) et un autre pour
les domaines (R[i]) sont utilises pour evalue le domaine denote par r d'une contrainte
X in r.
4.1.3 Jeu d'instructions
Le jeu d'instructions de la WAM est etendu pour prendre en compte les contraintes gr^ace
a trois groupes d'instructions emis pour toute clause contenant au moins une contrainte :
instructions d'interfacage avec Prolog.
instructions d'installation des contraintes.
instructions d'execution des contraintes.
CHAPITRE 4. IMPLANTATION DE CLP(FD)
84
Instructions d'interfacage avec Prolog
Ces instructions ont a charge de creer l'environnement dans lequel devront ^etre evaluees
les contraintes. En eet, toutes les contraintes d'une m^eme clause se partagent un m^eme
environnement qui est alors cree et initialise juste avant l'appel de la premiere d'entreelles. Ce qui correspond principalement a reserver susamment d'espace dans le heap, a
initialiser AF et, pour chaque argument, a stocker son adresse (si c'est une variable DF ou
un parametre domaine) ou sa valeur (dans le cas d'un parametre entier) (cf. representation
interne des environnements en section 4.1.2). Dans ce qui suit, l'ecriture V, elle denote une
variable temporaire (i.e. X[j] ou permanente (i.e. Y[j]) comme en section 3.1.7.
fd set AF(nb arg,V)
reserve l'espace dans le heap pour un environnement de nb arg arguments. AF et la
variable V pointent sur cet environnement.
fd variable in A frame(V)
lie V a une variable DF creee sur le heap (de domaine 0::infinity) et range son adresse
dans le mot pointe par AF. AF est alors incremente.
fd value in A frame(V)
suivant que la valeur w de la dereference de V est :
une variable libre : similaire a fd variable in A frame(w).
un entier : il est empile sur le tas sous forme de variable DF et son adresse est
rangee dans le mot pointe par AF. AF est alors incremente.
une variable DF : son adresse est rangee dans le mot pointe par AF. AF est alors
incremente.
fd range parameter in A frame(V)
doit ^etre lie a une liste d'entiers et le domaine correspondant est cree sur le heap.
L'adresse de ce domaine est copiee dans le mot pointe par AF. AF est alors incremente.
V
fd term parameter in A frame(V)
doit ^etre un entier qui est alors range dans le mot pointe par
incremente.
V
Pour chaque contrainte, les instructions suivantes sont alors produites :
AF. AF
est alors
CHAPITRE 4. IMPLANTATION DE CLP(FD)
85
fd install constraint(install proc,V)
re-initialise AF avec le contenu de V et CC avec l'instruction suivante avant de donner
le contr^ole au code d'adresse install proc.
fd call constraint
initialise CC avec l'instruction suivante et donne le contr^ole au code d'execution de la
contrainte pointee par CF.
Instructions d'installation des contraintes
Pour chaque contrainte, une procedure d'installation est generee dont le r^ole est de creer et
de charger une structure de donnee interne pour cette contrainte (cf. representation interne
des contraintes en section 4.1.2). Cette procedure initialise egalement les listes de dependances appropriees de toutes les variables utilisees par cette contrainte. Par exemple, pour
la contrainte c X in min(Y )..infinity, le code d'installation ajoutera un pointeur
vers c dans la liste de contraintes dependant de min(Y ).
fd create C frame(constraint proc,tell fv)
cree sur le heap une structure pour la contrainte dont le code d'execution se trouve
a l'adresse constraint proc et dont la variable contrainte est la tell fvieme. CF
pointe cette structure.
8
>>
>>
><
fd install
>
>>
>:
ind min
ind max
ind min max
ind dom
dly val
9
>>
>>
>=
>(fv)
>>
>;
Ces instructions sont utilisees quand la contrainte (pointee par CF) utilise le min (ou
le max, ou les 2,...) de la fvieme variable. Un nouvel element est ajoute dans la liste
correspondante a la fvieme variable.
fd proceed
rend le contr^ole a l'adresse pointee par CC.
CHAPITRE 4. IMPLANTATION DE CLP(FD)
86
Instructions d'executions des contraintes
Pour chaque contrainte X in r, une procedure est chargee de son (re)calcul. Celle-ci peut
^etre decomposee en 4 phases :
chargement des parametres, des termes et domaines indexicaux dans les registres de
travail.
evaluation du domaine denote par r.
appel de la fonction Tell pour mettre a jour X en fonction de r.
retour a l'appelant par fd proceed (cf. ci-dessus).
chargement des parametres, des termes et domaines indexicaux. La premiere
partie du code d'execution d'une contrainte consiste a extraire de l'environnement (pointe
par AF) les arguments utilises pour les charger dans des registres de travail. Le fait que
tout les chargements aient lieu au debut de la fonction permet d'optimiser l'utilisation des
registres et d'eviter les chargements inutiles. Par exemple, si une contrainte utilise dom(X )
et min(X ) seul le domaine de X doit ^etre charge puisqu'il contient deja le min de X.
fd range parameter(R[r],fp)
charge le domaine pointe par le fpieme parametre dans le registre R[r].
fd term parameter(T[t],fp)
charge la valeur du fpieme parametre dans T[t].
8
<
fd ind
:
9
min =
(T[t],fv)
max ;
9
8
< min =
de la fvieme variable dans T[t].
charge le :
max ;
fd ind min max(T[tmin],T[tmax],fv)
charge le min et le max de la fvieme variable dans T[tmin] et T[tmax].
fd ind dom(R[r],fv)
charge le domaine de la fvieme variable dans R[r].
CHAPITRE 4. IMPLANTATION DE CLP(FD)
87
fd dly val(T[t],fv,lab else)
si la fvieme variable est un entier, sa valeur est copiee dans T[t] sinon le contr^ole
est donne au code d'etiquette lab else.
Evaluation du domaine denote par r. La compilation de r est classique et similaire
a celle des expressions arithmetiques (i.e. dirigee par la syntaxe). L'arbre syntaxique est
parcouru des feuilles vers la racine, chaque feuille et chaque noeud donnant lieu a une
instruction specique. Pour les feuilles correspondant a des parametres ou des termes indexicaux, des instructions de copie sont produites pour initialiser les registres appropries a
partir de ceux charges par la partie precedente. Le code nal peut benecier d'un optimiseur
de registre2 .
fd interval range(R[r],T[tmin],T[tmax])
8<
fd
:
union
inter
9=
;(R[r],R[r1]) execute R[r]
fd compl(R[r])
execute R[r] 0::infinityn
fd compl of singleton(R[r],T[t])
8
>>
><
fd range
>>
>:
add
sub
mul
div
fd integer(T[t],n)
add
sub
mul
floor div
ceil div
8
>> +pointwise
><
pointwise
R[r]
>> pointwise
>:
=pointwise
n.
execute T[t]
9
>>
>=
>>T[t].
>;
R[r1].
9>
>>
>>
=
>> term(T[t],T[t1]) execute T[t]
>>
>;
fd term copy(T[t],T[t1]
2
R[r].
execute R[r] 0::infinity n fT[t]g.
execute R[r]
execute T[t]
T[tmin]..T[tmax].
8< 9=
[ R[r1].
R[r]
:\;
9
>>
>=
>> term(R[r],T[t]) execute R[r]
>;
fd range copy(R[r],R[r1])
8>
>>
>>
<
fd term
>>
>>
>:
execute R[r]
8>
>>
>>
<
T[t]
>>
>>
>:
9
>>
>=
>T[t1].
b=c >>>
d=e >;
+ >
>
T[t1].
dans clp(FD) nous avons reutilise l'allocateur/optimiseur de registres de la WAM.
CHAPITRE 4. IMPLANTATION DE CLP(FD)
88
Appel de la fonction Tell. Rappelons que la contrainte est pointee par CF qui permet
egalement d'atteindre X . Donc seul le resultat de l'evaluation de r doit ^etre precise par
les instructions appelant Tell. Dans le but d'optimiser les domaines reduits a un intervalle
nous distinguerons les cas X in t1 ::t2 du cas general X in r. La description complete de
la fonction Tell sera donnee en section 4.1.4.
fd tell range(R[r])
ajoute la contrainte X
in R[r]
quand r n'est pas un intervalle.
fd tell interval(T[tmin],T[tmax])
ajoute la contrainte X
in T[tmin]..T[tmax]
(i.e. r est un intervalle).
La table 8 presente un fragment du code genere pour notre exemple typique 'x=y+c' (cf.
exemple 2.1).
'x=y+c':
fd set AF(3,X[3])
fd value in A frame(X[0])
fd value in A frame(X[1])
fd term parameter in A frame(X[2])
fd install constraint(inst 1,X[3])
fd call constraint
fd install constraint(inst 2,X[3])
fd call constraint
proceed
3 el
ements X, Y, C
X est fv(0)
Y est fv(1)
C est fp(2)
installe cstr 1
ex
ecute cstr 1
installe cstr 2
ex
ecute cstr 2
retour Prolog
inst 1:
fd create C frame(cstr 1,0)
fd install ind min max(fv(1))
fd proceed
utilise min(Y) et max(Y)
retour d'installation
cstr 1:
fd
fd
fd
fd
fd
fd
min(Y) et max(Y)
C
min(Y)+C
max(Y)+C
X in min(Y)+C..max(Y)+C
retour d'ex
ecution
inst 2:
(
ind min max(T[0],T[1],fv(1))
term parameter(T[2],fp(2))
term add term(T[0],T[2])
term add term(T[1],T[2])
tell interval(T[0],T[1])
proceed
:::)
Tableau 8 : fragment du code genere pour 'x=y+c'
CHAPITRE 4. IMPLANTATION DE CLP(FD)
4.1.4 Operation
89
T ell
Comme nous l'avons vu precedemment, la fonction associee a chaque contrainte X in r
commence par evaluer le domaine denote par r avant d'appeler la fonction Tell. Celleci doit mettre a jour X en fonction de r et, en cas de modication du domaine de X ,
doit reveiller toutes les contraintes dependant de X . Les grandes lignes de cette operation
peuvent ^etre resumees comme suit :
Si X est un entier, celui-ci doit appartenir a r :
X 2 r : succes (VerifEntier)
X 62 r : echec (EchecEntier)
sinon (X est une variable dont le domaine courant est rX ) soit r0 = r \ rX :
r0 = ; : echec (EchecDomaine)
r0 = rX (i.e. rX r) : succes (VerifDomaine)
sinon : le domaine de X est remplace par r0 (ReducDomaine). C'est a cette occasion
que X peut devenir clos. La reduction du domaine de X est alors repercutee a toutes
les contraintes dependant de X par la phase de propagation3. C'est ici que nous
benecions du fait d'avoir plusieurs listes de dependances distinctes pour eviter des
reveils inutiles.
Notons que lorsque le domaine courant de X est deja compris dans celui denote par r
(issues VerifDomaine et VerifEntier), cette operation est inutile. En section 4.3.3, nous
analyserons les sources de tels appels pour voir s'il est possible de les detecter et d'en
reduire le nombre.
La phase de propagation gere l'ensemble des contraintes a reactiver. La reexecution d'une
de ces contraintes peut a son tour enrichir cet ensemble. Du fait que l'ordre de ces reactivations n'inue pas sur la correction, nous avons toute latitude sur la maniere de gerer
cet ensemble. Nous pouvons le representer explicitement (tas, pile, le,...) ou adopter un
schema d'execution base sur des continuations implicites. Dans ce cas, apres reduction
du domaine de X , toute contrainte dependant de X est immediatement executee par un
3
la valeur du registre CC doit ^etre empilee sur la pile locale pour ^etre restauree apres la propagation.
CHAPITRE 4. IMPLANTATION DE CLP(FD)
90
appel imbrique. Ceci est tres similaire a l'execution des buts en PL ou l'on peut choisir
entre la strategie, en profondeur d'abord, de Prolog et des gestions plus complexes des
buts de la resolvante comme cela se fait dans les langages logiques concurrents. En ce qui
concerne l'implantation de clp(FD), nous avons choisi une representation explicite par le
de l'ensemble des contraintes a reactiver car le leger surco^ut qu'elle engendre est largement
contrebalance par la exibilite qu'elle ore. De plus, l'experience nous a montre que l'obtention des solutions etait generalement plus rapide gr^ace a une propagation en largeur
d'abord (i.e. le) qu'avec une propagation en profondeur d'abord (i.e. pile).
4.2 Integration de clp(FD) dans wamcc
est implante au dessus de wamcc et benecie donc de toutes les facilites de ce
Prolog. Le compilateur a ete modie pour generer le code WAM etendu decrit precedemment (environ 1000 lignes de Prolog en plus). La librairie associee a clp(FD) etend celle
de wamcc par :
clp(FD)
fonctions d'executions des instructions etendant la WAM, i.e. le solveur proprement
dit (1700 lignes de C).
fonctions relatives aux operations sur les domaines telles qu'intersection, union,...
(1700 lignes de C).
predicats predenis propres aux variable DF et aux contraintes (1000 lignes de Prolog
et 800 lignes de C).
Ces extensions repesentent seulement 100 Ko de code supplementaires par rapport a la
librairie de wamcc (260 Ko contre 160 Ko). Tous ces chires permettent de se rendre compte
de la minimalite de l'extension proposee pour les contraintes.
Du point de vue de l'execution, toute contrainte DF donne lieu a deux fonctions. La
premiere contient le code d'installation et la seconde celui d'execution. Puisque chaque
(re)execution de contrainte donne lieu a un appel de fonction C, le registre CC n'est plus
necessaire (le registre de continuation du processeur est implicitement utilise). La fonction
d'execution associee a une contrainte (re)evalue la contrainte pointee par CF et retourne un
booleen suivant la reussite ou l'echec de ce calcul. Du fait qu'une telle fonction est invoquee
CHAPITRE 4. IMPLANTATION DE CLP(FD)
91
plusieurs milliers de fois il est important de veiller a la qualite du code qui la compose. Pour
cette raison, nous evitons la denition explicite de CF comme registre global de la WAM
etendue pour plut^ot le passer en tant que parametre de la fonction d'execution. Il est de
ce fait considere comme une variable locale de cette fonction. De m^eme le registre AF est
simplement deni comme une variable locale dans la fonction et est initialise des l'entree
a partir de CF. Pour augmenter la vitesse d'evaluation des contraintes, les registres R[]
et T[] sont denis, eux aussi, comme des variables locales dans chaque fonction. Ceci est
d'autant plus interessant que sur les machines RISC l'acces aux variable locales est moins
co^uteux que l'acces a des donnees globales. De plus, le compilateur C essaye d'allouer les
variables locales dans des registres de la machine pour la duree de la fonction. En particulier
les registres de termes de la WAM etendue (T[]) peuvent ^etre alloues dans des registres
machines ramenant l'evaluation des contraintes sur des intervalles a des operations entre
registres. Pour illustrer cela considerons a nouveau la contrainte utilisateur 'x=y+c' (cf.
exemple 2.1). La table 8 precedemment rencontree montrait le code WAM etendu associe a
cette contrainte. La compilation vers C de ce code, en ce qui concerne la premiere contrainte
X in min(Y)+C..max(Y)+C, est pr
esentee en table 9. Cette traduction donne lieu a une
fonction ne manipulant que des entiers au travers de variables locales que le compilateur
C alloue facilement dans des registres. Ce qui peut ^etre verie sur la table 10 qui presente
le code assembleur Sparc produit par le compilateur gcc.
CHAPITRE 4. IMPLANTATION DE CLP(FD)
static Bool cstr 1(WamWord *CF)
f
g
92
X in min(Y)+C..max(Y)+C
WamWord *AF=AF Pointer(CF);
WamWord *fdv adr;
WamWord tr0,tr1,tr2;
Bool
ok;
fdv adr=(WamWord *) (AF[1]);
tr0=Range(fdv adr)->min;
tr1=Range(fdv adr)->max;
fd ind min max(T[0],T[1],fv(1))
:
:
tr2=(int) (AF[2]);
fd term parameter(T[2],fp(2))
tr0+=tr2;
tr1+=tr2;
fd term add term(T[0],T[2])
fd term add term(T[1],T[2])
fdv adr=Tell Fdv Adr(CF);
ok=Tell Interval(fdv adr,tr0,tr1);
return ok;
fd tell interval(T[0],T[1])
:
fd proceed
Tableau 9 : fragment de code C genere pour 'x=y+c'
cstr 1:
save %sp,-104,%sp
ld [%i0],%o3
ld [%i0+4],%o0
ld [%o3+4],%o2
ld [%o3+8],%o3
ld [%o2+32],%o1
ld [%o2+36],%o2
add %o1,%o3,%o1
call Tell Interval,0
add %o2,%o3,%o2
ret
rstore %g0,%o0,%o0
en entr
ee: %i0=CF
prologue
%o3=AF=AF Pointer(CF)
%o0=adresse de X
%o2=adresse de Y
%o3=C
%o1=min(Y)
%o2=max(Y)
%o1=min(Y)+C
%o0=Tell Interval(%o0,%o1,%o2)
%o2=max(Y)+C (delay slot)
retour de %o0
epilogue (delay slot)
Tableau 10 : fragment de code assembleur Sparc genere pour 'x=y+c'
CHAPITRE 4. IMPLANTATION DE CLP(FD)
93
4.3 Evaluation de clp(FD)
4.3.1 Le jeu de benchmarks
Un ensemble de benckmarks classiques a ete utilise pour tester les performances de la
version de clp(FD) :
crypta
eq10
: un systeme de 10 equations lineaires sur 7 variables de domaine initial 0..10.
eq20
: un systeme de 20 equations lineaires sur 7 variables de domaine initial 0..10.
alpha
: une addition \cryptee" portant sur 10 variables de domaine initial 0..9, 2
de domaine 0..1, 3 equations lineaires et 45 disequations [67].
: un probleme de chirage (codage) necessitant 26 variables de domaines initiaux 1..26, 20 equations et 325 disequations.
: le tres celebre probleme des N-reines [67] avec N variables de domaine initial
1..N et 3*N*(N-1)/2 disequations.
: le puzzle des cinq maisons [67] necessitant 25 variables de domaine intial 1..5,
11 equations lineaires, 50 disequations et 3 disjonctions de 2 equations lineaires.
: le probleme du car sequencing [33] avec 10 variables de domaine intial 1..6, 50
de domaine 0..1, 49 inequations et 56 contraintes symboliques (element, atmost [67]).
queens
five
cars
Les programmes crypta, eq10, eq20 et alpha permettent de tester les aptitudes de clp(FD)
a resoudre les equations lineaires pures et avec disequations. Les autres programmes testent l'ecacite de clp(FD) sur divers autres aspects tels que forward checking (queens),
disjonctions (five) et contraintes symboliques du type de element ou atmost (cars).
Dans tous les programmes seule la premiere solution est calculee et l'enumeration se fait
de maniere standard excepte lorsque ff est precise indiquant alors une enumeration basee
sur l'heuristique rst-fail qui enumere d'abord sur la variable de plus petit domaine [67]).
CHAPITRE 4. IMPLANTATION DE CLP(FD)
94
4.3.2 Evaluation de l'implantation de base
Pour permettre d'evaluer la version de base de clp(FD) nous l'avons comparee a la version
commerciale 3.2 du langage CHIP de COSYTEC. Exactement les m^emes programmes ont
ete utilises avec les deux langages sur un Sparc 2 (28.5 Mips). Les temps indiques sont
en secondes et ne tiennent pas compte du temps systeme. La table 11 presente les temps
d'execution des deux systemes ainsi que le facteur d'acceleration (ou de ralentissement
si precede du symbole # ) de clp(FD) par rapport a CHIP. En moyenne, clp(FD) est
1.5 fois plus rapide que CHIP en ce qui concerne les equations lineaires (avec parfois des
pointes a 6) et 3 fois plus rapide pour les autres programmes. Ces performances sont tres
honn^etes au regard de la simplicite du systeme. Toutefois, l'analyse de la decomposition
des operations Tell nous revele qu'en moyenne 72 % de ces operations sont inutiles parce
que reussissant sans aucune reduction de domaine (cf. table 12). Le meilleur cas etant five
avec \seulement" 57 % et le pire etant queens 70 ff avec 91 %. Nous allons donc etudier
comment reduire le nombre de Tells inutiles.
Programme
crypta
eq10
eq20
alpha
alpha ff
queens 16
queens 64 ff
queens 70 ff
queens 81 ff
five
cars
CHIP
3.2
0.120
0.170
0.300
61.800
0.280
2.830
0.990
42.150
1.620
0.030
0.120
clp(FD)
2.21
0.090
0.110
0.170
9.290
0.160
1.620
0.220
47.960
0.430
0.010
0.040
facteur
acceleration
1.33
1.54
1.76
6.65
1.75
1.74
4.50
# 1.13
3.76
3.00
3.00
Tableau 11 : version de base de clp(FD) versus CHIP (temps en sec.)
CHAPITRE 4. IMPLANTATION DE CLP(FD)
95
Implantation de base
Decomposition des Tells
Temps
Tell
Reduc
Verif
Verif Echec Echec
Programme
exec. (nombre) domaine domaine entier entier domaine
crypta
0.090
8919
2073
4087
2707
11
41
eq10
0.110
15746
3018
8679
4000
6
43
eq20
0.170
24546
5154
12497
6846
12
37
alpha
9.290 904936 254349 348261 293866 3810
4630
alpha ff
0.160
15124
2668
7793
4646
14
3
queens 16
1.620
64619
21132
6954 34700 834
999
queens 64 ff
0.220
4556
1813
276
2446
2
1
queens 70 ff 47.960
2009404 171859
81159 1747810 5387
3189
queens 81 ff
0.430
10633
3004
609
7011
6
3
five
0.010
566
227
52
273
14
0
cars
0.040
2483
402
1271
810
0
0
Tableau 12 : decomposition des Tells dans la version de base
4.3.3 Optimisations
Nous allons determiner les sources des appels inutiles a Tell et, dans certains cas, denir
des optimisations pour les eviter. L'impact de celles-ci sera evalue en pourcentage de Tells
(totaux et inutiles) evites et en pourcentage de temps d'execution economise. La premiere
mesure est interessante parce que independante de la machine donc generale. La seconde
mesure permet toutefois de se faire une idee de l'impact d'une optimisation sur le temps
de calcul.
Equivalence de contraintes
Le fait d'ecrire plusieurs contraintes X in r pour une m^eme contrainte de haut niveau
a pour consequence que ces contraintes sont souvent equivalentes et donnent lieu a des
appels inutiles.
Considerons la contrainte X = Y + 5, ('x=y+c'(X,Y,5), cf. exemple 2.1) dans le store
courant :
fX
g
in 5..15, Y in 0..10
donnant :
CHAPITRE 4. IMPLANTATION DE CLP(FD)
fX
96
in 5..15, Y in 0..10,
(CX ),
min(X)-5..max(X)-5 (CY )g
X in min(Y)+5..max(Y)+5
Y in
Que se passe-t-il lors de l'ajout de la contrainte X in 12..100 ? X est initialise a 12::15
donc son min est propage a Y via CY (Y in 7..10). Or, du fait que le min de Y a
ete modie, CX (X in 12..15) sera reexecute inutilement (i.e. le Tell ne modie pas le
domaine de X ). Evidemment, il est inutile d'evaluer a nouveau X a partir de Y puisque
Y vient juste d'^etre evalue a partir de X et que CX et CY sont equivalents.
Optimisation 1 : lors de l'ajout de la contrainte c, il est inutile de reexecuter c0 si c0 est
equivalent a c.
Dans la premiere version de clp(FD) (cf. [24]), cette optimisation etait implantee. Il n'y
avait pas a proprement parler de detection des contraintes equivalentes mais plut^ot un
imperatif pour l'utilisateur : toutes les contraintes denies dans une m^eme clause devaient
^etre equivalentes. Du fait que toutes ces contraintes se partageaient le m^eme environnement (pointe par AF) le test d'equivalence revenait a tester l'adresse des environnements
necessaires aux contraintes impliquees. L'economie realisee etait de l'ordre de 18 % de Tell
representant 12 % du temps d'execution dans le meilleur des cas (equations lineaires) mais
etait nulle dans le pire des cas (ex. queens).
Cette optimisation a ete abandonnee dans la version actuelle de clp(FD) car d'une part son
gain en temps d'execution est marginal et d'autre part elle est soumise a des conditions assez
fortes (ex. inutilisable avec des divisions a cause des arrondis) et/ou diciles a contr^oler
(ex. equivalence des contraintes ecrites par l'utilisateur). Enn, la le de propagation devait
contenir des triplets de la forme <variable X, AF, listes a reactiver> pour permettre de
reactiver les listes (indiquees) de contraintes dependant de X en testant l'adresse des
environnements pour detecter l'equivalence. De ce fait, plusieurs triplets pour la m^eme
variable (avec des pointeurs d'environnements dierents) pouvaient appara^tre dans la le.
La suppression de cette optimisation nous permet desormais d'utiliser une le dont les
elements sont des couples de la forme <variable, listes a reactiver>. Il est aise d'assurer
qu'il y a au plus un seul couple pour toute variable X (en regroupant les listes a reactiver en
presence de plusieurs couples pour une m^eme variable). De ce fait, la taille de notre le de
propagation est bornee par le nombre de variables. Il est alors possible de representer cette
CHAPITRE 4. IMPLANTATION DE CLP(FD)
Informations
de dependances
Informations
sur le domaine
Informations
file de propag.
Chain_Val
Chain_Dom
Chain_Min_Max
Chain_Max
Chain_Min
Chains_Mask
Chains_Stamp
97
Listes de contraintes
dependant de la variable
Masque listes non vides
Estampille pour trail
Vector
Max
Min
Extra_Cstr
Domaine
Nb_Elem
Range_Stamp
Nombre d’elements du domaine
Estampille pour trail
Q_Next_Fdv_Adr
Q_Propag_Mask
Q_Date_At_Push
Ptr prochaine var. en file
Masque listes a reexecuter
Date derniere mise en file
FDV
variable DF
Figure 12 : nouvelle representation interne d'une variable DF
le directement au travers des variables DF. La le ne necessite plus d'allocation explicite
de memoire gr^ace a un cha^nage des variables. Lorsqu'une variable DF est modiee elle est
juste cha^nee aux autres variables dont certaines contraintes doivent ^etre reactivees. Deux
cas peuvent alors se produire :
la variable est deja cha^nee, il sut de mettre a jour la liste des contraintes a reveiller.
la variable n'est pas encore cha^nee, il sut de la cha^ner.
Notons que ce procede evite des mises en le multiples d'une m^eme variable donc de m^emes
contraintes (cf. optimisation 3). Le moyen le plus ecace de tester si une variable est cha^nee
consiste a dater toute mise en le. Un registre DATE est alors ajoute et est incremente
a chaque appel de plus haut niveau d'une contrainte (i.e. par fd call constraint et
non pas a chaque appel issu de la propagation). Ainsi, une variable X est cha^nee si
Date At Push(X ) = DATE . La representation interne d'une variable est donc etendue
pour prendre en compte les informations de cha^nage (cf. gure 12). Les registres BP et TP
sont toujours utilises mais pointent desormais la premiere et la derniere variable DF de la
le.
Impact : la table 13 presente les gains de cette nouvelle organisation (cf. table 14 pour
plus d'informations). La diminution moyenne de 5 % sur le nombre de Tells inutiles est
CHAPITRE 4. IMPLANTATION DE CLP(FD)
98
due aux re-executions evitees et sera expliquee lors de la presentation de l'optimisation 3.
Le benece moyen de 16 % sur le temps d'execution est en grande partie (environ 10 %)
d^u aux simplications de certaines operations inherentes a la nouvelle le.
nb. de Tells Temps
total inutile exec.
Pire (queens 70 ff) 0 %
0 % 12 %
Moyen
4%
5 % 16 %
Meilleur (alpha ff) 13 % 16 % 25 %
Tableau 13 : gain de la le optimisee
File optimisee
Decomposition des Tells
Temps
Tell
Reduc
Verif
Verif Echec Echec
Programme
exec. (nombre) domaine domaine entier entier domaine
crypta
0.080
8302
2074
3754
2422
11
41
eq10
0.090
14341
2995
7792
3505
8
41
eq20
0.140
22059
5026
11164
5820
13
36
alpha
8.030 871838 254938 324838 283622 3817
4623
alpha ff
0.120
13176
2762
6392
4005
13
4
queens 16
1.390
64619
21132
6954 34700 834
999
queens 64 ff
0.170
4556
1813
276
2446
2
1
queens 70 ff 41.970
2009404 171859
81159 1747810 5387
3189
queens 81 ff
0.340
10633
3004
609
7011
6
3
five
0.010
558
225
52
267
14
0
cars
0.040
2439
402
1265
772
0
0
Tableau 14 : decomposition des Tells avec une le optimisee
Satisfaction de contraintes
Une autre source d'appels inutiles a Tell est due aux contraintes satisfaites qu'il est alors
inutile de remettre en cause. Considerons par exemple la contrainte X 6= Y ('x6=y'(X,Y))
dans le store :
fX
g
in 1..10, Y in 1..10
donnant :
fX
in 1..10, Y in 1..10,
CHAPITRE 4. IMPLANTATION DE CLP(FD)
99
f
g (CX ),
-fval(X)g (CY )g
X in - val(Y)
Y in
Quand X est initialise a 5, CY est reveille et 5 est supprime du domaine de Y fournissant
le store suivant :
fX=5, Y
in 1..4:6..10,
CX , CY g
Supposons alors que la contrainte Y=8 soit ajoutee. Apres modication du domaine de
Y , la phase de propagation re-executera CX veriant inutilement que 5 6= 8. En eet, la
contrainte CX est desormais satisfaite puisque 5 n'appartient plus au domaine de Y .
Du fait qu'un resolveur sur les DF base sur la propagation locale n'est pas complet, il ne
serait pas realiste de vouloir detecter \au plus juste" la satisfaction d'une contrainte. Ceci
entra^nerait souvent l'enumeration des variables a chaque Tell. Ainsi, la meilleure maniere
de faire consiste a utiliser une approximation de la condition de satisfaction. Au chapitre 6
nous detaillerons ce principe. Pour l'instant, considerons que la seule approximation (i.e.
condition susante) pour detecter la satisfaction d'une contrainte X in r est un test de
cl^oture sur X , i.e. si X est clos dans S alors S satisfait X in r. Ainsi, dans l'exemple
precedent, quand la contrainte Y=8 est ajoutee, X in -fval(Y)g est detectee comme etant
satisfaite car X est clos. Evidemment, ceci n'est vrai que si X est devenu clos avant (et
non pas pendant) la phase de propagation courante (i.e. toutes les propagations dues a la
reduction de X doivent avoir ete eectuees).
Optimisation 2 : il est inutile de re-executer une contrainte X
avant la phase de propagation courante.
in
r si X a ete instanciee
Le registre DATE introduit pour la gestion de notre le optimisee est reutilise pour dater
l'instanciation nale d'une variable DF. Une nouvelle cellule est prevue pour cela dans la
representation des variables FD (cf. gure 13). Par la suite une contrainte X in r n'est pas
re-executee si ground(X ) ^ INT Date(X ) < DATE . Pour simplier ce test INT Date(X )
vaut la plus grande valeur possible tant que X n'est pas denitivement instancie.
Impact : la table 15 presente les gains obtenus avec cette optimisation. Elle est extr^eme-
ment performante pour les programmes utilisant la resolution par forward checking (ex.
94 % des Tells inutiles evites pour queens 70 ff correspondant a un gain de 74 %) et
moins pour les equations lineaires (gain moyen de 23 % des Tells inutiles correspondant a
CHAPITRE 4. IMPLANTATION DE CLP(FD)
Informations
de dependances
Informations
sur le domaine
Informations
file de propag.
Chain_Val
Chain_Dom
Chain_Min_Max
Chain_Max
Chain_Min
Chains_Mask
Chains_Stamp
100
Listes de contraintes
dependant de la variable
Masque listes non vides
Estampille pour trail
Vector
Max
Min
Extra_Cstr
Domaine
Nb_Elem
Range_Stamp
Nombre d’elements du domaine
Estampille pour trail
Q_Next_Fdv_Adr
Q_Propag_Mask
Q_Date_At_Push
Ptr prochaine var. en file
Masque listes a reexecuter
Date derniere mise en file
INT_Date
Date d’instanciation finale
FDV
variable DF
Figure 13 : representation interne denitive d'une variable DF
6 % du temps d'execution).
Pire (cars)
Moyen
Meilleur (queens
70
nb. de Tells Temps
total inutile exec.
5%
6 % 25 %
34 % 47 % 24 %
ff) 85 %
94 % 74 %
Tableau 15 : gain de l'optimisation 2
Occurrences multiples de contraintes en propagation
La derniere source de reactivations inutiles de contraintes vient du fait qu'il y a dans la
le de propagation plusieurs occurrences d'une m^eme contrainte. Nous pouvons distinguer
deux sources pour ce phenomene :
(a) ranements successifs d'une m^eme variable entra^nant des occurrences multiples des
contraintes dependant de cette variable.
(b) ranements de variables distinctes dont depend une m^eme contrainte entra^nant des
occurrences multiples de cette contrainte.
CHAPITRE 4. IMPLANTATION DE CLP(FD)
101
Du fait que l'ordre dans lequel ces contraintes seront reveillees n'a pas d'importance du
point de vue de la correction, cela peut conduire a des reactivations inutiles : a tout instant
il sut qu'au plus une occurrence de chaque contrainte soit en le.
Optimisation 3 : si une contrainte est deja presente en le de propagation il est inutile
de l'y ajouter a nouveau.
Dans la version initiale de clp(FD) [24] l'optimisation 3 etait implantee en datant les mises
en le des contraintes ainsi que les executions de contraintes (gr^ace a un mot supplementaire
dans la representation des contraintes). L'execution d'une contrainte c en le etait alors
inutile si Date Exec(c) > Date Mise En File(c). Dans le meilleur cas, le gain etait alors
de 26 % de Tells correspondant a 17 % du temps d'execution et nul dans le pire des cas.
Dans la version courante de clp(FD), ceci a ete abandonne pour les raisons suivantes :
les re-executions du type (a) sont automatiquement evitees gr^ace a notre gestion de
la le de propagation au travers des variables DF puisque, lors de l'ajout en le d'une
variable, si celle-ci s'y trouve deja seul le masque des listes a re-executer est mis a
jour (ou logique).
il etait necessaire de dater toutes les executions de contraintes (y compris celles dues
a la propagation) ce qui n'est pas necessaire pour les dates requises par la le et par
l'optimisation 2. De ce fait, des qu'un calcul devenaint long le registre DATE debordait
necessitant un lourd traitement de remise a zero de toutes les dates.
l'elimination systematique des \doublons" permet d'eviter les reactivations du type
(b) (et que celles-ci) mais n'ore qu'un gain marginal du fait que l'ordre d'evaluation
des contraintes est modie.
Pour illustrer ce dernier cas, considerons un ensemble de contraintes exprimees sous la
forme CX (Y1; :::; Yn) pour une contrainte sur X dependant des variables Y1...Yn. Soit alors
les contraintes : CX (T ), CY (X ), CZ (X; Y; T ), CA(Z ) et un reseau R de contraintes interdependantes portant sur un ensemble de variables incluant A mais dont l'intersection avec
fX; Y; Z; Y g est vide. De ce fait la mise a jour de Z entra^ne une mise a jour de A donc un recalcul de R arbitrairement important mais qui n'inuence aucune des variables X; Y; Z; T .
Cet exemple met en evidence un impact negatif de l'optimisation 3, qui en ne rajoutant
pas la contrainte CZ (X; Y; T ) a la le de propagation sous pretexte qu'elle s'y trouve deja,
CHAPITRE 4. IMPLANTATION DE CLP(FD)
102
engendre de deux calculs de R au lieu d'un seul. Le point de depart est d^u a une modication
de T .
Sans optimisation 3 :
Etape
1
2
3
4
5
6
7
8
9
10
Execution de utile ?
T in :::
oui
CX (T )
oui
CZ (X; Y; T )
oui
CY (X )
oui
CZ (X; Y; T )
oui
CA(Z )
oui
CZ (X; Y; T ) non
CA(Z )
non
R
oui
propag R
oui
le de propagation
| CX (T ) CZ (X; Y; T )
CZ (X; Y; T ) | CY (X ) CZ (X; Y; T )
CY (X ) CZ (X; Y; T ) | CA(Z )
CZ (X; Y; T ) CA(Z ) | CZ (X; Y; T )
CA(Z ) CZ (X; Y; T ) | CA(Z )
CZ (X; Y; T ) CA(Z ) | R
CA(Z ) R |
R|
| propag R
|
Nous pouvons distinguer 3 occurrences de CZ (X; Y; T ) en le : (i) apres modication de
T (etape 1), (ii) apres modication de X (etape 2) et (iii) apres modication de Y (etape
4). Sans optimisation, c'est l'occurrence (ii) qui calcule la valeur nale de Z (donc de A en
etape 6) avant de lancer le calcul de R qui sera alors denitif. L'occurrence (iii) correspond
alors a une re-execution inutile (etape 7) de m^eme que la seconde evaluation de A a l'etape
8. Avec l'optimisation 3, l'occurrence (ii) est supprimee et R est calcule une premiere fois a
partir d'une valeur de Z intermediaire (due a l'occurrence (i)) via une valeur intermediaire
de A. Z ne prend sa valeur denitive que lors de l'occurrence (iii) entra^nant ainsi un
re-calcul de R.
Avec optimisation 3 :
Etape
1
2
3
4
5
6
7
8
9
10
11
Execution de utile ?
T in :::
oui
CX (T )
oui
CZ (X; Y; T )
oui
CY (X )
oui
CA(Z )
oui
CZ (X; Y; T )
oui
R
oui
CA(Z )
oui
propag R
oui
R
oui
propag R
oui
le de propagation
| CX (T ) CZ (X; Y; T )
CZ (X; Y; T ) | CY (X ) (CZ (X; Y; T ) non rajoute)
CY (X ) | CA(Z )
CA(Z ) | CZ (X; Y; T )
CZ (X; Y; T ) | R
R | CA(Z )
CA(Z) | propag R
propag R | R
|R
| propag R
|
CHAPITRE 4. IMPLANTATION DE CLP(FD)
103
Notre exemple articiel est un cas pathologique pour l'optimisation 3. En moyenne celle-ci
reduit tout de m^eme le nombre d'appels inutiles a Tell tout en augmentant legerement le
nombre de Tells utiles (cf. l'exemple). Cette optimisation est interessante lorsqu'elle prend
en charge les re-executions inutiles de type (a) et (b) comme c'etait les cas dans notre premiere version mais devient peu convaincante lorsqu'elle ne s'occupe que des reevaluations
du type (b) comme c'est le cas avec une le \optimisee".
4.3.4 Evaluation de l'implantation nale
Nous avons identie trois sources d'appels inutiles a Tell. Les optimisations visant a eviter ces appels protent a toutes les contraintes et sont de ce fait globales a l'oppose des
optimisation locales (i.e. ad-hoc) des resolveurs bo^te noire. Remarquons que l'execution
d'une contrainte est tres rapide (ex. sur un Sparc 2 a 40 Mhz il s'en execute jusqu'a 80000
par seconde). De plus, comme nous le verrons ci-dessous, les Tells inutiles sont beaucoup
moins co^uteux que les appels inevitables. De ce fait, l'ajout d'une optimisation ne doit
pas entra^ner de surco^ut trop fort pour avoir un impact sur le temps d'execution. Par rapport a la premiere version de clp(FD) qui optimisait les trois cas d'appels inutiles nous
n'avons retenu que l'optimisation 2 (satisfaction de contrainte) qui est celle dont l'impact
est le plus important (ex. queens 70 ff environ 4 fois plus rapide gr^ace a cette optimisation). L'abandon de l'optimisation 1 (contraintes equivalentes) nous a permis d'optimiser
notre le de propagation. L'adoption de celle-ci permet un gain en temps de 10 % gr^ace
a la simplication de certaines operations et prend en charge implicitement un certain
cas d'optimisation 3 (occurrences multiples de contraintes). L'optimisation des autres cas
n'apporte qu'un gain marginal du fait du changement de l'ordre d'evaluation. Nous avons
donc une fois de plus privilegie la simplicite de l'architecture lorsque seul un gain marginal
etait au rendez-vous. Analysons de plus pres les resultats de notre nouvelle approche.
La table 16 analyse les issues des operations Tells pour la version nale (i.e. avec le
optimisee et optimisation 2). L'impact combine de la le optimisee et de l'optimisation 2
est resume en table 17 (cf. table 18 pour plus de details). La gure 14 permet d'evaluer
graphiquement l'apport des optimisations.
En moyenne, il est possible de reduire de moitie (52 %) le nombre de Tells ramenant ainsi
la proportion de Tells inutiles par rapport aux utiles a 54 % (cette proportion etait de
CHAPITRE 4. IMPLANTATION DE CLP(FD)
104
File optimisee + optim 2
Decomposition des Tells
Temps
Tell
Reduc
Verif Verif Echec Echec
Programme
exec. (nombre) domaine domaine entier entier domaine
crypta
0.070
7057
2074
3754 1177
11
41
eq10
0.080
12479
2995
7792 1643
7
42
eq20
0.130
18963
5026
11164 2724
11
38
alpha
7.770 641204 254938 324838 52988 2023
6417
alpha ff
0.110
10429
2762
6392 1258
7
10
queens 16
0.890
33481
21132
6954 3562 834
999
queens 64 ff
0.130
2143
1813
276
33
2
1
queens 70 ff 11.070
292381 171859
81159 30787 5387
3189
queens 81 ff
0.210
3787
3004
609 165
6
3
five
0.010
397
225
52 106
14
0
cars
0.030
2324
402
1265 657
0
0
Tableau 16 : decomposition des Tells dans la version nale
Pire (cars)
Moyen
Meilleur (queens
70
nb. de Tells Temps
total inutile exec.
6%
8 % 25 %
37 % 52 % 36 %
ff) 85 %
94 % 77 %
Tableau 17 : gain de la version nale
Programme
crypta
eq10
eq20
alpha
alpha ff
queens 16
queens 64 ff
queens 70 ff
queens 81 ff
five
cars
Gain moyen
Nombre total de Tells
Initial Final Gain
8919
7057 21 %
15746 12479 21 %
24546 18963 23 %
904936 641204 29 %
15124 10429 31 %
64619 33481 48 %
4556
2143 53 %
2009404 292381 85 %
10633
3787 64 %
566
397 30 %
2483
2324 6 %
37 %
Nombre de Tells inutiles
Initial Final Gain
6794
4931 27 %
12679
9435 26 %
19343 13888 28 %
642127 377826 41 %
12439
7650 38 %
41654 10516 75 %
2722
309 89 %
1828969 111946 94 %
7620
774 90 %
325
158 51 %
2081
1922 8 %
52 %
Tableau 18 : detail du gain nal
Temps d'execution
Initial Final Gain
0.090 0.070 22 %
0.110 0.080 27 %
0.170 0.125 26 %
9.290 7.770 16 %
0.160 0.110 31 %
1.620 0.890 45 %
0.220 0.130 41 %
47.960 11.070 77 %
0.430 0.210 51 %
0.010 0.010 0 %
0.040 0.030 25 %
36 %
CHAPITRE 4. IMPLANTATION DE CLP(FD)
Version
de Base
105
Version
finale
100 %
75 %
Tells
inutiles
50 %
Tells
utiles
25 %
0 %
Temps
Tells
Temps
Tells
Figure 14 : impact des optimisations
72 % dans la version initiale). Parmi ceux-ci nous pensons qu'un nombre important peut
^etre encore elimine par une optimisation 2 plus precise (cf. chapitre 6).
L'economie de temps d'execution est d'environ 36 %. Une partie de celle-ci est due aux
simplications inherentes a l'architecture de le optimisee (environ 10 %). Ceci peut ^etre
conrme en se referant a la table 15 qui montre qu'une diminution de 47 % du nombre
d'appels inutiles ore un gain de 24 %. Donc le gain propre a la diminution de 52 % est de
26 % (ce qui verie les 36% - 10 %). Ceci nous donne deux informations importantes :
la simplication de certaines operations a permis d'economiser environ 10 % du temps
d'execution. Ceci s'explique par le grand nombre de fois ou les contraintes sont executees. De petites modications peuvent avoir de grandes repercussions.
puisque un gain de 52 % de Tells inutiles se reete par un gain en temps de 26 % nous
en deduisons que dans la version initiale les 72 % d'appels inutiles correspondaient a
50 % du temps d'execution.
le gain total possible en temps d'execution est donc de 50 %. Ce gain est a comparer
a nos 26 %. La encore une meilleur optimisation 2 devrait nous permettre de nous
rapprocher de ces 50 %.
puisque ces 72 % d'appels inutiles consomment autant de temps que les 28 % d'appels
utiles, nous en deduisons qu'un appel utile est en moyenne 2:5 fois plus co^uteux qu'un
appel inutile.
Le fait qu'un appel utile soit environ 2.5 fois plus co^uteux qu'un appel inutile est d^u au
peu de travail que necessite ce dernier puisqu'il n'evalue que le domaine denote par r avant
CHAPITRE 4. IMPLANTATION DE CLP(FD)
106
de detecter que X n'est pas reduit. En particulier, dans le cas d'equations (resolues par
lookahead partiel) les evaluations de r ne font intervenir que des operations arithmetiques
sur des entiers, ce qui est generalement tres rapide (cf. section 4.2).
La table 19 compare la version nale de clp(FD) a la version commerciale 3.2 de CHIP sur
un Sparc 2. Nous incluons egalement le benchmark bridge [67]. Sur les equations lineaires
clp(FD) est environ 2 fois plus rapide que CHIP (avec des pointes a 8) et sur les autres
problemes le facteur moyen est de l'ordre de 4 en faveur de clp(FD).
Programme
crypta
eq10
eq20
alpha
alpha ff
queens 16
queens 64 ff
queens 70 ff
queens 81 ff
five
cars
bridge
CHIP
3.2
0.120
0.170
0.300
61.800
0.280
2.830
0.990
42.150
1.620
0.030
0.120
2.750
clp(FD)
2.21
0.070
0.080
0.130
7.770
0.110
0.890
0.130
11.070
0.210
0.010
0.030
0.640
facteur
acceleration
1.71
2.12
2.30
7.95
2.54
3.17
7.61
3.80
7.71
3.00
4.00
4.29
Tableau 19 : clp(FD) versus CHIP (temps en sec.)
Nous pouvons egalement comparer clp(FD) au compilateur CHIP. Celui-ci n'est pas disponible mais [2] presente les temps pour le probleme queens et de bridge sur un Sparc
1+ (les temps ont donc ete normalises par un facteur 1.6). Sur ces exemples, clp(FD) est
environ 3 fois plus rapide que le compilateur CHIP (cf. table 20).
Programme
queens 16 ff
queens 64 ff
queens 256 ff
bridge
CHIP
compil.
0.040
0.490
14.560
2.068
clp(FD)
2.21
0.010
0.130
6.930
0.640
facteur
acceleration
4.00
3.76
2.10
3.23
Tableau 20 : clp(FD) versus compilateur CHIP (temps en sec.)
Chapitre 5
Contraintes booleennes
Un exemple interessant pour montrer la exibilite de l'approche RISC est l'etude des
contraintes booleennes : celles-ci (et, ou et non, pour rester simple) sont a valeur dans un
domaine ni (0..1) mais sont cependant dierentes des contraintes usuelles sur les DF.
Il est donc interessant de voir s'il est possible d'encoder ecacement ces contraintes en
contraintes primitives X in r et de comparer le resolveur booleen ainsi obtenu avec les
autres resolveurs existants utilisant des methodes et algorithmes completement dierents.
La resolution des contraintes booleennes est un probleme deja ancien mais qui nourrit
des recherches toujours tres actives. De nombreuses methodes ont ete developpees, soit
generales soit pour des types particuliers de formules. Il y a quelques annees l'utilisation
de techniques de propagation locale a ete proposee par le langage CHIP, qui en fait dispose
de deux resolveurs booleens : l'un base sur l'unication booleenne, et l'autre utilisant la
propagation locale et reutilisant certaines procedures du resolveur sur les domaines nis.
Il s'avere en fait que pour beaucoup d'applications le resolveur utilisant la propagation est
bien plus ecace que l'autre, a tel point que dans CHIP il est le resolveur par defaut pour
les booleens.
Il est en fait tres facile de denir les operation booleennes de base (et, ou et non) en
termes de contraintes primitives. Le resolveur booleen est reduit a moins de 10 lignes de
code clp(FD) ! C'est-a-dire a 3 denitions de contraintes en termes de X in r. Notons
en outre que cet encodage se fait a un niveau plus bas qu'une simple transformation
le contenu de ce chapitre a ete publie dans [26, 27, 28].
107
CHAPITRE 5. CONTRAINTES BOOLEENNES
108
des contraintes booleennes en expressions arithmetiques par exemple et qu'on peut ainsi
esperer une plus grande ecacite. En outre, ce resolveur est ouvert a l'utilisateur qui peut
ajouter de nouvelles contraintes, pour integrer par exemple directement des contraintes
d'implication, d'equivalence, etc.
Ceci est cependant assez evident, du fait que les booleens sont un cas particulier de domaines nis, et peut sembler un simple exercice d'ecole. Le plus surprenant cependant est
que le resolveur ainsi realise soit tres ecace : il est plus rapide que le resolveur de CHIP
d'environ un ordre de magnitude, et se compare favorablement a la plupart des resolveurs
booleens ad hoc bases sur d'autres algorithmes, comme les methodes enumeratives, les
BDD ou les techniques de recherche operationnelle. Notons nalement que ces resolveurs
utilisent en general de nombreuses heuristiques pour ameliorer les performances, alors que
notre resolveur n'en a pour l'instant aucune, et que l'on peut donc encore esperer une
amelioration des performances.
5.1 Un panorama des resolveurs booleens
Bien que le probleme de la satisabilite des formules booleennes ne soit pas nouveau, la
conception de methodes ecaces est encore un champ de recherche actif. Par ailleurs, il faut
noter qu'il est tres souvent important de pouvoir conna^tre les modeles (i.e. les aectations
des variables), quand ils existent, de ces formules. A cette n, plusieurs methodes, basees
sur des structures de donnees et sur des algorithmes tres dierents, ont ete proposees
et nous allons maintenant nous employer a classier ces resolveurs booleens a partir de
systemes eectivement implantes.
5.1.1 Methodes basees sur la resolution
La methode de resolution, originellement concue pour la logique des predicats, peut evidemment ^etre specialisee au cas qui nous interesse, i.e. propositionnel. Cette methode
utilise une representation clausale des formules booleennes ou chaque litteral represente
une variable booleenne ; il s'agit donc d'operer en forme normale conjonctive. Le principe
de la methode consiste en une suite d'etapes dont chacune d'entre elles prend deux clauses
contenant des occurrences opposees et produit une nouvelle clause logiquement equivalente
CHAPITRE 5. CONTRAINTES BOOLEENNES
109
a la conjonction des deux precedentes ; ce processus se poursuit jusqu'a production de la
clause vide (ou inconsistance) ou de quelque consequence logique recherchee. Par exemple,
une certaine forme de cette methode (dite SL-resolution), appara^t dans la version actuelle
de Prolog-III [31] [4]. Cependant, les faibles performances de ce resolveur limitent son
emploi a de petits problemes. Plusieurs ranements ont ete proposes en vue de limiter
l'espace de recherche potentiellement enorme de cette methode et on renverra a [56] pour
plus ample information. Retenons simplement qu'il ne semble pas y avoir d'amelioration
possible importante des qu'on sort de petites classes de problemes.
5.1.2 Methodes basees sur les diagrammes de decisions binaires
(BDD)
Les diagrammes de decisions binaires (BDD) ont connu recemment un grand succes en
tant que moyen ecace de coder les fonctions booleennes [13] et il etait naturel d'essayer
de les utiliser dans un resolveur booleen. L'idee de base des BDD consiste a avoir une
representation compacte de la forme normale de Shanon d'une formule booleenne. Une
formule a une telle forme normale si elle est reduite a une constante (0 ou 1) ou a une
expression de la forme ite(x; F; G), pour \if x then F else G", ou F et G sont en forme
normale. L' expression if-then-else de cette forme ite(x; F; G) represente la formule (x ^
F ) _ (:x ^ G). Une maniere ecace de coder et de manipuler cette forme normale utilise
un BDD reduit et ordonne qui sera represente par un DAG dont les noeuds interieurs sont
etiquetes par les variables et les feuilles par les constantes. Un noeud interieur x ayant deux
ls F et G represente une expression if-then-else ite(x; F; G). En etablissant un ordre total
sur les variables booleennes, il est possible de construire pour toute formule booleenne
un BDD respectant cet ordre (au sens suivant : x < y ssi il existe un chemin de x a
y) et partageant (i.e. factorisant) les sous-expressions communes. La forme normale ainsi
obtenue est unique. A titre d'exemple la formule F = (x ^ y) _ z et l'ordre x < y < z
donnent le BDD de la gure 15.
Notons que la taille et la forme des BDD dependent fortement de l'ordre des variables choisi
car un \bon" ordre permettra de partager un plus grand nombre de sous-expressions. De
la sorte, le nombre des noeuds d'un BDD en fonction du nombre de variables de la formule
peut varier de lineaire a exponentiel.
CHAPITRE 5. CONTRAINTES BOOLEENNES
110
X
Y
Z
1
0
Figure 15 : BDD representant la formule (x ^ y) _ z
Les BDD ont ete utilises dans de nombreux resolveurs, ainsi l'unication booleenne [50]
du resolveur de CHIP utilise une telle representation des formules booleennes [14] [65].
Citons encore le resolveur d'Adia [57], sa version amelioree (la deuxieme methode de [59])
et la combinaison de wamcc, cf. section 3 et de Adia [35]. Ce dernier systeme consiste en
l'integration d'un resolveur booleen base sur les BDD a l'interieur d'un compilateur Prolog
base sur la WAM. Ses performances sont quatre fois meilleures que celles de l'unication
booleenne de CHIP [35]. De tels resolveurs sont ecaces pour des applications telles que
la verication de circuits booleens mais, des que les problemes ne sont plus aussi symetriques, il y a degradation des performances car les BDD construits durant le calcul sont
extr^emement grands. Il est de plus co^uteux de maintenir (i.e. recalculer) une forme normale telle que les BDD a chaque fois qu'une nouvelle contrainte est ajoutee. Cette absence
d'incrementalite se retrouve au niveau du choix de l'ordre sur les variables dont on a precedemment dit l'importance : il n'est pas vraiment possible d'avoir dans les langages de
contraintes des heuristiques complexes sur cet ordre. Dernier inconvenient, l'impossibilite
de ne calculer qu'une seule solution (au lieu de toutes).
5.1.3 Methodes enumeratives
En gros, ces methodes (qui incluent le celebre algorithme Davis-Putman) consistent a essayer les dierentes aectations possibles en instanciant incrementalement les variables
(a 0 ou a 1) et en testant la satisabilite de maniere plus ou moins sophistiquee. L'idee
principale consiste donc a construire, implicitement ou explicitement, un arbre de decision
CHAPITRE 5. CONTRAINTES BOOLEENNES
111
en instanciant les variables et en le parcourant par backtracking. La consistance des contraintes booleennes est testee des que leurs variables sont closes. [56] et [51] decrivent des
ameliorations possibles de tels tests et [58] montre comment calculer des unicateurs principaux de tous les modeles. An d'^etre plus ecaces, de nouvelles methodes utilisent une
forme clausale matricielle pour representer les contraintes booleennes, citons les vecteurs
de bits de [51] et les matrices creuses de la premiere methode de [59]. In ne, remarquons
la encore la possibilite d'agrementer ces methodes d'heuristiques variees...
5.1.4 Programmation en nombres entiers 0-1
On a recemment propose une tout autre methode qui consiste a transformer un probleme de
satisfaction de contraintes, et en particulier un probleme sur les booleens, en un probleme de
resolution d'ensemble d'inequations lineaires en nombres entiers tel que la satisabilite du
probleme initial se ramene a un probleme d'optimisation dudit ensemble d'inequations [43].
On pourra utiliser pour ce dernier probleme des methodes traditionnelles de recherche
operationnelle telles que les methodes branch-and-cut de la programmation lineaire en 0-1.
Partant de la forme clausale, on traduira chaque clause de maniere immediate. Par exemple,
la clause x1 _:x2 _x3 _:x4 se traduira en l'inequation lineaire x1 +(1 x2)+x3 +(1 x4) 1,
i.e. x1 x2 + x3 x4 1. On arrivera a une solution ou a l'inconsistance en derivant de
nouvelles inequations, ce qui sera fait en eliminant variable apres variable par combinaisons
lineaires d'inequations, d'une maniere rappelant eectivement la resolution. Une methode
apparentee appara^t dans [5, 6], ou diverses heuristiques sont utilisees dans le choix de la
prochaine variable a eliminer et sont encodees dans une fonction d'optimisation qui guidera
la recherche vers une solution optimale. La methode consiste donc a generer une suite de
vecteurs X1 ; :::; Xk telle que chacun des Xk ait ses elements dans l'ensemble f0,1g et soit
une solution optimale (satisfaisant les contraintes initiales).
Une telle methode peut s'averer tres ecace, surtout pour de gros problemes, et appara^t
plus adaptee a la recherche d'une seule solution plut^ot que de toutes.
CHAPITRE 5. CONTRAINTES BOOLEENNES
112
5.1.5 Methodes basees sur la propagation.
Elles reposent sur des techniques de propagation locale developpees pour les domaines nis
qui son nees des problemes de satisfaction de contraintes et ont ete introduits en PLC par
CHIP. L'idee de base consiste ici a gerer un reseau de contraintes entre un ensemble de
variables pouvant prendre leurs valeurs dans un ensemble ni de constantes, en assurant
une consistance locale et en propageant celle-ci a travers les contraintes reliant les variables.
En PLC on n'implante habituellement que l'arc-consistance. Ainsi, la phase de propagation
est suivie par une phase dite d'enumeration ou les variables non encore determinees sont
incrementalement instanciees a quelque valeur de leur domaine reduit a la phase precedente.
Diverses heuristiques peuvent ^etre incorporees a ce stade en vue du choix de la prochaine
variable a instancier. Une instanciation peut ainsi mener a la reactivation de contraintes
non encore totalement satisfaites, donc a la reduction de domaines d'autres variables, etc.
On continue jusqu'a trouver une solution.
Le langage CHIP par exemple incorpore un resolveur booleen base sur ces techniques. Il
s'avere en fait que le resolveur utilisant la propagation est bien plus ecace que celui base
sur l'unication booleenne, a tel point que dans CHIP il est le resolveur par defaut pour
les booleens.
5.1.6 PLC versus resolveurs dedies
Il faut aussi distinguer dans la classication precedente entre les resolveurs booleens dedies,
destines a prendre en entree un ensemble de formules booleennes, et les resolveurs qui sont
integres dans des langages de PLC, car ceux-ci orent une exibilite bien plus grande en
proposant un langage logique complet pour enoncer le probleme et generer les formules
booleennes a resoudre. Seuls PrologIII, CHIP et clp(B/FD) tombent dans cette derniere
categorie.
Les avantages de l'integration dans un langage de PLC sont les suivants.
d'abord, le langage logique peut ^etre utilise comme metalangage pour poser les
contraintes booleennes au lieu de donner une formulation booleennes explicite, par
exemple une forme clausale, qui est en general complexe et assez illisible.
CHAPITRE 5. CONTRAINTES BOOLEENNES
113
ensuite, les heuristiques de calcul peuvent ^etre integrees dans le programme lui-m^eme,
ceci etant donc a l'oppose d'un resolveur booleen ferme avec un nombre limite d'heuristiques pre-denies.
enn, ceci permet diverses extensions comme par exemple les pseudo-booleens [8] ou
les logiques multi-valuees [72].
Les contraintes pseudo-booleennes en particulier sont tres importantes car elles permettent en general une formulation plus simple et un elagage de l'espace de recherche plus
important. Elles ouvrent aussi sur un domaine d'application important en recherche operationnelle. Notons que les contraintes pseudo-booleennes sont immediatement disponibles
dans un systeme comme clp(B/FD).
5.2 Contraintes booleennes
Denition 5.1 Soit V un ensemble enumerable de variables. Une contrainte booleenne
sur V est une des formules suivantes :
and(X; Y; Z ) ; or(X; Y; Z ) ; not(X; Y ) ; X = Y ; pour X; Y; Z 2 V [ f0; 1g
La signication intuitive de ces formules est : X ^ Y Z , X _ Y Z , X :Y , et X Y .
On notera B V l'ensemble des contraintes booleennes sur V , et on utilisera par la suite B ,
lorsque l'ensemble de variables n'a pas d'importance particuliere.
Denissons maintenant les regles de propagation (de valeurs) pour les contraintes booleennes.
Denition 5.2 Soit B la theorie du premier ordre sur les formules presentee en table 21.
Notons qu'il est facile d'enrichir, si besoin est, ce systeme de contraintes par d'autres
contraintes booleennes telles que xor (ou exclusif), nand (non et), nor (non ou), , (equivalence), ou ) (implication), en donnant les regles correspondantes. Mais ces contraintes
peuvent aussi ^etre denies gr^ace aux contraintes de base.
On peut alors denir une relation de satisfaction `B entre les contraintes booleennes, donc
par suite un systeme de contraintes selon le formalisme presente au chapitre 2.
CHAPITRE 5. CONTRAINTES BOOLEENNES
0=0
114
1=1
and(X,Y,Z), X=0 ! Z=0 and(X,Y,Z), Y=0 ! Z=0
and(X,Y,Z), X=1 ! Z=Y and(X,Y,Z), Y=1 ! Z=X
and(X,Y,Z), Z=1 ! X=1 and(X,Y,Z), Z=1 ! Y=1
or(X,Y,Z), X=1 ! Z=1
or(X,Y,Z), X=0 ! Z=Y
or(X,Y,Z), Z=0 ! X=0
or(X,Y,Z), Y=1 ! Z=1
or(X,Y,Z), Y=0 ! Z=X
or(X,Y,Z), Z=0 ! Y=0
not(X,Y), X=0 ! Y=1
not(X,Y), Y=0 ! X=1
not(X,Y), X=1 ! Y=0
not(X,Y), Y=1 ! X=0
Tableau 21 : theorie de propagation booleenne B
Denition 5.3 Considerons un store S et une contrainte booleenne b.
S `B b si et seulement si S implique b avec les axiomes auxiliaires de B .
Soit B ^;9 la cl^oture de B par conjonction et quantication existentielle, le systeme de contraintes booleennes est (B ^;9; `B ).
Ceci est la construction usuelle, cf. [63], pour formaliser un systeme de contraintes a partir
d'une theorie du premier ordre.
Il est a noter que les regles de B (donc `B ) encodent precisement les mecanismes de
propagation qui seront utilises pour simplier et resoudre les contraintes booleennes. On
a ainsi donne une semantique operationnelle au resolveur de contraintes. Il est cependant
important de s'assurer que notre systeme de contraintes (deni operationnellement) est
bien equivalent aux expressions booleennes traditionnelles. Pour cela, nous devons prouver
que la relation de satisfaction derive les m^emes resultats que la semantique declarative des
booleens donnee par les tables de verite des operations and, or et not.
Proposition 5.1 Les contraintes and(X; Y; Z ), or(X; Y; Z ), et not(X; Y ) sont satisfaites
pour des valeurs de X; Y et Z si et seulement si ce triplet de valeurs est donne dans la
table de verite de l'operation correspondante.
Preuve :
Il faut montrer que, pour and(X; Y; Z ) et or(X; Y; Z ), des que X et Y sont lies a une
valeur, alors la valeur de Z est correcte, c'est-a-dire unique (si plusieurs regles peuvent se
CHAPITRE 5. CONTRAINTES BOOLEENNES
115
declencher, alors elles donnent toutes le m^eme resultat) et egal a la valeur trouvee dans la
table de verite. Il faut aussi montrer que toutes les lignes de cette table sont eectivement
calculees. Ceci est verie par une analyse de cas triviale. Pour not(X; Y ), on verie aisement
que pour toute valeur de X , Y a la valeur opposee.
2
5.3 Codage des booleens en clp(FD) : clp(B/FD)
Nous allons maintenant voir comment denir la traduction de chacune des contraintes
booleennes en contraintes primitives de clp(FD), c'est-a-dire en contraintes X in r. Nous
prouverons egalement la correction et la completude de ce resolveur, en montrant qu'il
encode bien la \semantique operationnelle" denie par la theorie B .
La syntaxe des contraintes primitives X in r permet d'utiliser des operations arithmetiques sur les bornes des domaines (r). Considerons donc certaines relations mathematiques
satisfaites par les contraintes booleennes :
and(X; Y; Z ) satisfait Z = X Y
Z X Z Y +1 Y
Z Y Z X +1 X
or(X; Y; Z )
satisfait Z = X + Y X Y
Z (1 Y ) X Z
Z (1 X ) Y Z
not(X; Y )
satisfait X = 1 Y
Y =1 X
La denition du resolveur est alors triviale et presentee dans la table 22. Il encode simplement les relations ci-dessus.
Proposition 5.2 Les contraintes and, or, et not sont correctes et completes.
Preuve :
La preuve de correction consiste simplement a montrer que chaque triplet de valeur (dans
f0; 1g) satisfaisant la relation ci-dessus est un element de la table de verite correspondante.
La completude par rapport a la semantique declarative (tables de verite) est montree en
sens inverse. On peut aussi relier directement le resolveur de clp(B/FD) a la theorie de
propagation B et montrer que chaque fois qu'une regle de B s'applique, le triplet de
CHAPITRE 5. CONTRAINTES BOOLEENNES
and(X,Y,Z):-
Z in min(X)*min(Y)..max(X)*max(Y),
X in min(Z)..max(Z)*max(Y)+1-min(Y),
Y in min(Z)..max(Z)*max(X)+1-min(X).
or(X,Y,Z):-
Z in min(X)+min(Y)-min(X)*min(Y)..
max(X)+max(Y)-max(X)*max(Y),
X in min(Z)*(1-max(Y))..max(Z),
Y in min(Z)*(1-max(X))..max(Z).
not(X,Y):-
X in
Y in
116
f1-val(Y)g,
f1-val(X)g.
Tableau 22 : denition du resolveur booleen de clp(B/FD)
variables dans l'ensemble de contraintes resultant satisfait les relations mathematiques
encodees par le resolveur de contraintes. La encore une analyse de cas simple sut a
prouver ce resultat. Par exemple si and(X; Y; Z ); Y = 1 ! Z = X s'applique, alors Z X Z Y + 1 Y est verie dans l'ensemble de contraintes resultant.
2
5.4 Evaluation des performances de clp(B/FD)
5.4.1 Le jeu de benchmarks
Pour evaluer les performances de clp(B/FD), nous avons utilise des programmes booleens
traditionnels :
le lemme de Schur.
Ce probleme consiste a trouver un coloriage en trois couleurs des entiers f1 : : : ng tel
qu'il n'y ait pas de triplet monochrome (x; y; z) tel que x + y = z. Le programme
utilise 3 n variables pour indiquer, pour chaque entier, sa couleur. Ce probleme a
une solution ssi n 13.
pigeon:
schur:
le probleme des pigeons.
Il consiste a mettre n pigeons dans m cages (avec au plus un pigeon par cage). La
formulation booleenne utilise n m variables pour indiquer, pour chaque pigeon, le
numero de sa cage. Il y a evidemment une solution ssi n m.
CHAPITRE 5. CONTRAINTES BOOLEENNES
queens:
ramsey:
117
le probleme des reines.
Il faut placer n reines sur un echiquier n n de telle maniere qu'aucune reine n'en
attaque une autre. La formulation booleenne utilise n n variables pour indiquer,
pour chaque case de l'echiquier, s'il y a une reine dessus ou non.
le probleme de Ramsey.
Trouver un coloriage a trois couleurs du graphe complet a n sommets tel qu'il n'y ait
pas de triangle monochrome. Le programme utilise trois variables pour chaque ar^ete
pour indiquer sa couleur. Ce probleme a une solution ssi n 16.
Pour ces programmes, on calcule toutes les solutions sauf si cela est explicitement mentionne. Les resultats presentes pour clp(B/FD) n'incluent aucune heuristique et ont ete
mesures sur une station de travail Sparc 2 (28:5 Mips). La section suivante compare
clp(B/FD)avec la version commerciale de CHIP (CHIP 3.2). Nous avons choisi CHIP
comme principale comparaison parce que, d'une part, c'est un produit commercial et,
d'autre part, c'est egalement un langage de PLC (et pas seulement un resolveur booleen)
et qu'il accepte donc les m^eme programmes que clp(B/FD). De plus le resolveur booleen
de CHIP est egalement base sur des techniques de propagation heritees des domaines nis1 .
Nous avons aussi compare clp(B/FD) avec des resolveurs booleens dedies, les resultats en
sont presentes dans les sections suivantes.
5.4.2
clp(B/FD)
et CHIP
Les temps pour CHIP ont aussi ete mesures sur une station Sparc 2. Exactement les m^emes
programmes ont ete executes sur les deux systemes.
est environ huit fois plus rapide que CHIP, en etant parfois meilleur de deux
ou trois ordres de magnitude (cf. la table 23). Ce facteur huit peut ^etre compare au facteur
quatre entre clp(FD) et CHIP pour des programmes de PLC sur les domaines nis. La
raison principale de cette dierence est, a notre avis, que dans CHIP le resolveur booleen est
ecrit au dessus du resolveur sur les domaines nis alors que dans clp(B/FD) le resolveur
booleen est specique, gr^ace a l'utilisation de la contrainte primitive X in r, et qu'il
clp(B/FD)
l'autre resolveur de CHIP, base sur l'unication booleenne, devient vite impraticable pour des problemes complexes : aucun des programmes de test presentes ici n'a pu ^etre execute en l'utilisant, a cause
de problemes d'occupation memoire trop importante.
1
CHAPITRE 5. CONTRAINTES BOOLEENNES
Programme
schur 13
schur 14
schur 30
schur 100
pigeon 6/5
pigeon 6/6
pigeon 7/6
pigeon 7/7
pigeon 8/7
pigeon 8/8
queens 8
queens 9
queens 10
queens 14 1st
queens 16 1st
queens 18 1st
queens 20 1st
ramsey 12 1st
ramsey 13 1st
ramsey 14 1st
ramsey 15 1st
ramsey 16 1st
CHIP
3.2
0.830
0.880
9.370
200.160
0.300
1.800
1.700
13.450
12.740
117.800
4.410
16.660
66.820
6.280
26.380
90.230
392.960
1.370
7.680
33.180
9381.430
31877.520
118
clp(B/FD)
2.21
0.100
0.100
0.250
1.174
0.050
0.360
0.310
2.660
2.220
24.240
0.540
2.140
8.270
0.870
3.280
10.470
43.110
0.190
1.500
2.420
701.106
1822.220
CHIP
clp(B=FD)
8.30
8.80
37.48
170.49
6.00
5.00
5.48
5.05
5.73
4.85
8.16
7.78
8.07
7.21
8.04
8.61
9.11
7.21
5.12
13.71
13.38
17.49
Tableau 23 : clp(B/FD) versus CHIP (temps en sec.)
benecie de l'implantation optimisee de celle-ci directement.
5.4.3
clp(B/FD)
et les autres resolveurs
Nous comparons ici clp(B/FD) avec des resolveurs booleens dedies utilisant des algorithmes
tres dierents.
Ces resolveurs ne sont pas des langages de programmation, ils prennent en entree un ensemble de contraintes et les resolvent. Il y a donc autant de formulations que d'instances
du probleme. A l'oppose, clp(B/FD) genere les contraintes lors de l'execution du programme (ce surco^ut est limite a environ 20 %, donc peu important), et un seul programme
sut pour toutes les instances d'un m^eme probleme. Un autre point a souligner est que
CHAPITRE 5. CONTRAINTES BOOLEENNES
119
n'avons pas pu executer exactement les m^emes programmes et que nous avons donc utilise
les temps donnes dans les articles de reference (qui incorporent en general de nombreuses
heuristiques).
clp(B/FD)
et les BDD
Adia est un resolveur booleen ecace base sur les BDD. Les mesures de temps d'execution
proviennent de [59], sur une station de travail Sparc IPX (28:5 Mips). Quatre heuristiques
dierentes sont utilisees, et nous avons choisi de comparer clp(B/FD) avec le meilleur et
le pire des temps donnes. Notons que les methodes basees sur les BDD calculent toutes les
solutions et sont donc inutilisables pour les gros problemes tels que queens pour n 9 et
schur for n = 30.
Ici encore clp(B/FD) a de tres bonnes performances, voir la table 24 dans lequel le signe
# devant un nombre signie un facteur de ralentissement de clp(B/FD) par rapport a Adia.
On voit que clp(B/FD) est en general plus rapide d'au moins un ordre de grandeur sauf
pour le probleme des pigeons. Il est a noter que les performances des methodes basees sur
les BDD par rapport aux methodes enumeratives ou par propagation varient enormement
d'un probleme a l'autre, cf. [66] pour une etude sur un autre jeu de benchmarks.
Programme
schur 13
schur 14
pigeon 7/6
pigeon 7/7
pigeon 8/7
pigeon 8/8
queens 6
queens 7
queens 8
Pire Meilleur
BDD BDD
3.260
1.110
5.050
1.430
1.210
0.110
3.030
0.250
4.550
0.310
15.500
0.580
2.410
1.010
12.030
4.550
59.210 53.750
clp(B/FD)
2.21
0.100
0.100
0.310
2.660
2.220
24.240
0.060
0.170
0.490
Pire BDD Meil. BDD
=
clp(B=FD)
32.60
11.10
50.50
14.30
3.90
# 2.81
1.13
# 10.64
2.04
# 7.16
# 1.56
# 41.79
40.16
16.83
70.76
26.76
120.83
109.69
clp(B FD)
Tableau 24 : clp(B/FD) versus un BDD (temps en sec.)
CHAPITRE 5. CONTRAINTES BOOLEENNES
clp(B/FD)
120
et une methode enumerative
[58] propose des resultats pour une methode enumerative a la Davis-Putnam utilisee pour
l'unication booleenne. Les temps sont donnes sur une station Sun 3/80 (1:5 Mips) et ont
ete normalises par un facteur 1=19. clp(B/FD) est en moyenne 6.5 fois plus rapide, voir la
table 25.
Programme
schur 13
schur 14
pigeon 5/5
pigeon 6/5
pigeon 6/6
pigeon 7/6
queens 7
queens 8
queens 9
Enum.
0.810
0.880
0.210
0.120
2.290
0.840
0.370
1.440
6.900
clp(B/FD)
2.21
0.100
0.100
0.060
0.050
0.360
0.310
0.170
0.540
2.140
Enum
clp(B=FD)
8.10
8.80
3.50
2.40
6.36
2.70
2.17
2.66
3.22
Tableau 25 : clp(B/FD) versus une methode enumerative (temps en sec.)
clp(B/FD)
et la consistance locale booleenne
Nous comparons ici a [51] dans lequel sont presentes les resultats d'un resolveur base
sur une methode de consistance locale booleenne. Les temps sont donnes sur un Macintosh
SE/30, equivalent a un Sun 3/50 (1:5 Mips). Nous les avons donc normalises par un facteur
1=19. Ce resolveur comporte deux heuristiques d'enumeration, la plus importante etant la
possibilite d'ordonner dynamiquement les variables par rapport au nombre de contraintes
dans lesquelles elles se retrouvent. clp(B/FD) utilise par contre tout simplement un ordre
statique.
Un point interessant a remarquer est que les dierences de performances entre les deux
methodes sont dans des facteurs constants a l'interieur de chaque classe de probleme.
clp(B/FD) est un peu plus lent sur schur d'un facteur 1:4, trois fois plus rapide sur
pigeon, et quatre fois plus rapide sur queens, voir la table 26. Nous conjecturons que les
deux resolveurs realisent a peu pres le m^eme travail d'elagage de l'espace de recherche, bien
qu'ils soient bases sur des structures de donnees pour les contraintes tres dierentes.
CHAPITRE 5. CONTRAINTES BOOLEENNES
Programme
schur 13
schur 14
pigeon 7/6
pigeon 7/7
pigeon 8/7
pigeon 8/8
queens 8
queens 9
queens 10
queens 14 1st
queens 16 1st
BCons.
0.070
0.080
0.870
7.230
6.820
67.550
1.810
7.752
32.720
3.140
17.960
121
clp(B/FD)
2.21
0.100
0.100
0.310
2.660
2.220
24.240
0.540
2.140
8.270
0.870
3.280
BCons
clp(B=FD)
# 1.42
# 1.25
2.80
2.71
3.07
2.78
3.35
3.62
3.95
3.60
5.47
Tableau 26 : clp(B/FD) versus la consistance locale booleenne (temps en sec.)
clp(B/FD)
et une methode de recherche operationnelle
Nous comparons ici avec la methode FAST93 [6], qui est basee sur des techniques de programmation 0-1 de la recherche operationnelle. Les temps sont donnes pour une station
Sparc Station 1+ (18 MIPS), donc normalises avec un facteur 1=1:6 dans la table 27. Il faut
noter que dans ces tests, seule la premiere solution est calculee, car FAST93 ne peut calculer toutes les solutions. Pour le probleme des pigeons, FAST93 a de bonnes performances
quand le probleme est insatisable (m^eme pour des gros problemes), c'est-a-dire quand il
y plus de pigeons que de cages (N > M ). En eet, cette methode peut deduire rapidement
que l'inequation ne peut ^etre satisfaite. La formulation purement booleenne que nous avons
utilisee pour clp(B/FD) n'a pas d'aussi bons resultats pour les gros problemes, mais il est
tres facile en clp(B/FD) d'ajouter une contrainte non-booleenne N < M (qui detectera
immediatement l'inconsistance), car notre systeme est integre dans un resolveur sur les domaines nis. Notons que ceci serait impossible pour un resolveur purement booleen, et ceci
explique pourquoi nous n'avons pas pu utiliser cette formulation dans nos comparaisons.
5.5
clp(B)
un resolveur dedie pour les booleens
Dans la section precedente nous avons vu que les techniques de propagation locales offraient une alternative satisfaisante pour resoudre ecacement des problemes booleens et,
CHAPITRE 5. CONTRAINTES BOOLEENNES
Programme
pigeon
pigeon
pigeon
pigeon
pigeon
ramsey
ramsey
7/7 1st
8/7 1st
8/8 1st
9/8 1st
9/9 1st
10 1st
12 1st
FAST93
0.250
1.940
0.630
4.230
0.690
11.500
81.440
122
clp(B/FD)
2.21
0.020
2.220
0.030
20.190
0.040
0.110
0.190
FAST93
clp(B=FD)
12.50
# 1.14
21
# 4.77
17.25
104.54
428.42
Tableau 27 : clp(B/FD) versus une methode de R.O. (temps en sec.)
en particulier, clp(FD) gr^ace a sa primitive X in r. Toutefois, seul un ensemble reduit
des possibilites oertes par la primitive X in r furent necessaires lors de la denition de
clp(B/FD). Nous allons donc concevoir un r
esolveur specialise pour les booleens que nous
appellerons clp(B) base sur une simplication de clp(FD) pour le cas booleen. Ce travail
est interessant a divers titres :
il va nous permettre d'evaluer le surco^ut de clp(FD) lorsque seuls les booleens sont
utilises (i.e. lorsque seule une part reduite des possibilites de X
in
r est utilisee).
il nous permettra de justier encore plus precisement pourquoi les methodes de propagation locales sont bien adaptees au problemes booleens.
il va nous faire decouvrir une machine abstraite etonnamment simple permettant
d'etendre aisement n'importe quel Prolog (i.e. WAM) pour prendre en charge des
contraintes booleennes.
5.5.1 La contrainte primitive
0 <= l1 ,: : :,ln
l
D'un point de vue pratique, clp(B) est tres similaire a clp(FD) puisqu'il est le resultat
d'une specialisation. Une telle specialisation est possible gr^ace aux proprietes qui apparaissent lorsque l'on se restreint a des domaines 0..1. Citons par exemple :
il n'est plus necessaire de coder le domaine explicitement dans la representation d'une
variable booleenne (puisque l'on sait que c'est toujours 0::1).
CHAPITRE 5. CONTRAINTES BOOLEENNES
123
une telle variable ne peut ^etre reduite qu'une seule fois (comme les variables Prolog).
Ceci signie que les estampilles ne sont plus necessaires.
si l'on se reporte a notre theorie de propagation booleenne (cf. table 21) l'on se rend
compte que les regles ne se declenchent que lorsqu'une des variables booleennes devient instanciee a une certaine valeur et ont pout eet d'instancier une autre variable.
D'ou l'idee de specialiser les contraintes dependant d'une variable en deux listes : la
liste des contraintes a reveiller lorsque la variable vaudra 0 et celle des contraintes a
reveiller lorsque la variable vaudra 1.
Ceci nous conduit a denir une primitive plus adaptee que X in r pour decrire les propagations booleennes. Celle-ci est de la forme l0 <= l1,: : :,ln ou chaque li est soit un litteral
positif (X ) ou un litteral negatif (-X ) (cf. table 28). Notons la dierence avec la formulation de clp(B/FD) ou la primitive X in r etait utilisee de maniere plus \calculatoire"
pour determiner la valeur a aecter a la variable X .
c ::= l0
l ::=
X
X
-
l ::: l
<= [ 1 , , n ]
(litteral positif)
(litteral negatif)
Tableau 28 : syntaxe de la contrainte l0
l : : :,ln
<= 1 ,
Denition 5.4 A chaque litteral li l'on associe Xi, la variable correspondante, tel que si
li -X ou li X alors Xi = X .
De m^eme l'on denit Bvaluei comme la valeur de verite du litteral li , i.e. si li -X (resp.
li X ) alors Bvaluei = 0 (resp. Bvaluei = 1).
La semantique declarative de la contrainte l0 <= l1,: : :,ln est evidemment \l0 doit ^etre
vrai dans tout store qui satisfait l1 ^ ::: ^ ln" (un litteral li etant satisfait dans un store S
ssi XiS = Bvaluei ).
Sans aucune perte de generalite nous pouvons considerer que le corps n'est compose que
de 1 ou 2 litteraux (i.e. n = 1 ou n = 2). En eet, le cas n = 0 revient a unier X0 a la
valeur Bvalue0 et le cas n > 2 peut ^etre reecrit en remplacant l0 <= [l1 ,l2,l3 ,:::,ln ] par
l0 <= [l1,I2 ], I2 <= [l2 ,I3],..., In 1 <= [ln 1 ,ln], ou chaque Ik est une nouvelle variable
CHAPITRE 5. CONTRAINTES BOOLEENNES
124
booleenne. Dans clp(B) un pre-processeur se charge de ces reecritures de code. Cette decomposition nous permet d'implanter tres ecacement l'operation Tell pour notre unique
primitive l0 <= l1 ,: : :,ln puisque seuls les cas n = 1 et n = 2 doivent ^etre pris en compte.
5.5.2 Denition des contraintes booleennes
Tout comme nous l'avons fait precedemment pour construire clp(B/FD) nous allons denir
la traduction de chacune des contraintes booleennes en contraintes primitives de clp(B),
c'est-a-dire en contraintes l0 <= l1,: : :,ln. Du fait de l'adequation de cette primitive pour
specier des regles de propagation nous obtenons une transcription directe (cf. table 29)
de la theorie presentee en table 212
and(X,Y,Z):-
or(X,Y,Z):-
not(X,Y):-
Z <= [X,Y],
X <= [Z],
Y <= [Z],
-Z <= [-X], -Z <= [-Y],
-X <= [Y,-Z],
-Y <= [X,-Z].
-Z <= [-X,-Y], Z <= [X],
Z <= [Y],
-X <= [-Z],
X <= [-Y,Z],
-Y <= [-Z],
Y <= [-X,Z].
X <= [-Y],
Y <= [-X],
-X <= [Y],
-Y <= [X].
Tableau 29 : denition du resolveur booleen de clp(B)
5.5.3 Extension de la WAM
Les principales modications de la WAM pour prendre en compte les variables booleennes
(et la contrainte primitive l0 <= l1,: : :,ln) sont tres similaires (quoique plus simples) a ce
que nous avons fait pour les domaines nis (cf. section 4.1 pour plus de details).
Un nouveau type de donnees est ajoute : les variables booleennes qui resideront dans le
heap. Ces variables seront dierenciees des autres variables gr^ace a une nouvelle etiquette
(BLV). L'ajout de ce nouveau type de variable aecte legerement la WAM comme suit :
2
les preuves de corrections et de completudes sont d'autant plus triviales et laissees au soin du lecteur.
CHAPITRE 5. CONTRAINTES BOOLEENNES
125
Manipulation de donnees
Tout comme les variables DF, les variable booleennes ne peuvent ^etre dupliquees. Pour
assurer cela nous utilisons le m^eme principe que pour les variables domaines.
Unication
Une variable booleenne X peut ^etre uniee avec :
une variable Prolog Y : Y est simplement liee a X .
un entier n: si n = 0 ou n = 1 la paire (X; n) est mise en le de propagation et la
procedure de consistance est invoquee (cf. section 5.5.4).
une autre variable booleenne Y : ceci revient a ajouter les contraintes suivantes :
X <=[Y ], -X <=[-Y ], Y <=[X ] et -Y <=[-X ].
Sauvegarde et restauration des domaines
Tout comme pour les variables domaines, il nous faut pouvoir sauvegarder des valeurs
dans la trail (ex. le passage d'une variable booleenne a un entier lors de l'instanciation de
celle-ci). Ceci est deja supporte par notre architecture WAM. En revanche, il n'est plus
necessaire d'utiliser des methodes d'estampillages comme cela etait le cas avec les variables
domaines puisque une variable booleenne ne sera reduite qu'une seule fois (pour prendre
sa valeur denitive).
Indexation
Ici encore l'on procede comme pour les variables domaines en considerant une variable
booleenne comme une variable Prolog classique et donc en essayant toutes les clauses.
Nouvelles structures de donnees pour les booleens
utilise une le de propagation pour la phase de consistance. Notre presentation
se basera sur une le explicite dont le debut et la n sont pointes par les registres BP et
clp(B)
CHAPITRE 5. CONTRAINTES BOOLEENNES
126
(comme dans la version initiale de clp(FD)). Toutefois il est possible d'utiliser une le
implicite similairement a ce qui a ete presente dans la version optimisee de clp(FD). Les
elements de cette le sont de couples (X; Bvalue) indiquant que la valeur Bvalue doit ^etre
aecte a la variable X .
TP
L'autre structure de donnees necessaire permet d'enregistrer les informations d'une variable
booleenne X (cf. gure 16) et se compose de :
le mot etiquete (auto-reference comme pour les variables domaines, cf. section 4.1.1).
listes de dependances : pour raisons evidentes d'ecacite nous distinguons les contraintes a activer lorsque X sera instancie a 0 (i.e. contraintes dependant de -X ) de
celles a activer lorsque X sera instancie a 1 (i.e. contraintes dependant de X ).
Chain_1
Chain_0
Listes de contraintes
dependant de la variable
BLV
variable booleenne
Figure 16 : representation interne d'une variable booleenne
Interessons nous desormais a la representation des contraintes elles-m^emes. Du fait qu'il
a au plus 2 litteraux dans le corps d'une contrainte c l0 <= l1 ,: : :,ln il est possible
d'associer c aux variables dont elle depend. En eet :
dan le cas n = 1 : c ne depend que d'une seule variable (i.e. X1 ) et doit ^etre resolue
aussit^ot que X1 = Bvalue1 . Il est donc commode de coder c entierement dans un
enregistrement de la liste appropriee des contraintes dependant de X1.
dans le cas n = 2 : c depend a la fois de X1 et de X2. Nous pouvons choisir de code c
dans la liste appropriee de X1 ainsi que dans la liste appropriee de X2 . Aussit^ot que
X1 est instancie a Bvalue1 il nous faut verier que X2 (l'autre variable impliquee)
est instancie a Bvalue2 pour pouvoir resoudre c. Pour permettre d'eectuer cette
verication il nous faut garder un reference de X1 vers X2 (et reciproquement de X2
vers X1)
Ainsi, contrairement a ce qui s'est passe avec les domaines nis, nous n'aurons pas une
structure particuliere pour enregistrer les contraintes car elles seront entierement codees
CHAPITRE 5. CONTRAINTES BOOLEENNES
127
dans les listes de dependances. Chaque element des listes de dependances encode une
contrainte l0 <= l1 ,: : :,ln et contient les informations suivantes (c.f. gure 17) :
l'adresse de variable contrainte (i.e. X0).
la valeur qui faudra lui aecter (i.e. Bvalue0).
dans le cas n = 2 : l'adresse de l'autre variable impliquee,.
dans le cas n = 2 : la valeur que devra verier l'autre variable impliquee.
Informations sur
l’autre variable
(si Bloc2_Flag)
Bvalue_2
Blv_2_Adr
Valeur que doit verifier l’autre variable
adresse de l’autre variable
Bloc2_Flag
cas n=2 ?
Tell_Bvalue
Tell_Blv_Adr
valeur a assigner
adresse de la variable contrainte
Next_Record
pointeur sur contrainte suivante
Figure 17 : representation interne d'une contrainte dans les listes de dependances
Notons que dans le cas n = 2 un enregistrement est necessaire dans la liste de dependance
appropriee de X1 (referencant l'autre variable X2 ) ainsi que dans la liste appropriee de
X2 (referencant X1). Cette duplication d'information est tres limitee puisqu'elle se reduit
a un surco^ut de 2 mots. La solution alternative necessiterait d'utiliser un mot de plus
pour stocker un compteur du nombre de variables. La gure 18 montre un \instantane"
de la memoire ou apparaissent les structures de donnees impliquees dans la contrainte
Z <= [-X,Y] (qui pourrait ^
etre utilisee pour denir xor(X,Y,Z)).
Jeu d'instructions
La compilation d'une contrainte l0
l : : :,ln se decompose en deux parties :
<= 1 ,
chargement des variables X0,...,Xn dans des arguments de la WAM,
installation et execution de la contrainte, i.e. creation des enregistrements appropries
dans les listes de dependances des variables X1 ,...,Xn et detection si la corps de la
contrainte est satisfait par le store courant. Dans l'armative la paire (X0; Bvalue0)
est mise en le de propagation et la procedure de consistance est invoquee.
CHAPITRE 5. CONTRAINTES BOOLEENNES
128
Chain_1
Chain_1
Chain_0
Chain_0
BLV
BLV
Variable X
Variable Y
BValue_2=1
BValue_2=0
Blv_2_Adr
Blv_2_Adr
Bloc2_Flag=On
Bloc2_Flag=On
Tell_BValue=1
Tell_BValue=1
Tell_Blv_Adr
Tell_Blv_Adr
Next_Record
Next_Record
Chain_1
Chain_0
BLV
Variable Z
Figure 18 : structures de donnees necessaires pour la contrainte Z
<= [-X,Y]
Dans la presentation qui suit nous notons Xi le ieme registre de la WAM plut^ot que X[i]
pour des raisons de clarte (nous simplierons encore en ecrivant X si l'indice du registre
n'a pas d'importance). Quand a l'ecriture V, elle denote une variable temporaire (i.e. X[j]
ou permanente (i.e. Y[j]) comme en section 3.1.7.
Les instructions de chargement sont :
b load variable(V,X)
lie V a une variable booleenne creee sur le tas et range son adresse dans le registre X.
b load value(V,X)
suivant que la valeur w de la dereference de V est :
une variable libre : similaire a b load variable(w,X).
un entier n : echoue si n 6= 0 et n 6= 1 sinon empile n sur le heap et range son
adresse dans le registre X.
CHAPITRE 5. CONTRAINTES BOOLEENNES
129
une variable booleenne : son adresse est rangee dans le registre X.
Les instructions d'installation et d'execution sont :
b install and tell cstr1(X0,bvalue0,X1,bvalue1)
deux possibilites suivant X1 :
(pour le cas n = 1)
est un entier : si X1 = bvalue1 la paire (X0;bvalue0) est mise en le et
la procedure de consistance est invoquee (sinon la contrainte reussit puisque le
corps n'est pas satisfait).
X1 est une variable booleenne : un enregistrement est ajoute a la liste appropriee
de X1 referencant X0 et bvalue0.
X1
b install and tell cstr2(X0,bvalue0,X1,bvalue1,X2,bvalue2)
trois possibilites suivant X1 et X2 :
X1
est un entier : similaire a
X2
est un entier : similaire a
(pour le cas n = 2)
b install and tell cstr1(X0,bvalue0,X2,bvalue2).
b install and tell cstr1(X0,bvalue0,X1,bvalue1).
et X2 sont deux variables booleennes : un enregistrement est ajoute a la liste
appropriee de X1 referencant X0 et bvalue0 ainsi que l'autre variable (i.e. X2 et
bvalue2). De m^
eme un enregistrement est ajoutee a la liste appropriee de X2
referencant X0 et bvalue0 ainsi que l'autre variable (i.e. X1 et bvalue1).
X1
Remarquons que seules 4 nouvelles instructions sont necessaires pour integrer ce resolveur
booleen dans la WAM. L'extension proposee est donc reellement minimale et notre experience nous a montre que quelques jours susaient pour incorporer ce solveur booleen a un
compilateur Prolog dont les sources sont bien connus (wamcc en l'occurrence). La table 30
presente le code genere pour la contrainte utilisateur and(X,Y,Z).
5.5.4 La procedure de consistance
Cette procedure doit assurer la consistance (locale) du store. Elle repete les etapes suivantes
jusqu'a ce que la le de propagation soit vide (ou qu'un echec soit detecte). Soit (X; Bvalue)
la paire couramment pointee par BP :
CHAPITRE 5. CONTRAINTES BOOLEENNES
and/3:
b load value(X[0],X[0])
b load value(X[1],X[1])
b load value(X[2],X[2])
b install and tell cstr2(X[2],1,X[0],1,X[1],1)
b install and tell cstr1(X[2],0,X[0],0)
b install and tell cstr1(X[2],0,X[1],0)
b install and tell cstr1(X[0],1,X[2],1)
b install and tell cstr2(X[0],0,X[1],1,X[2],0)
b install and tell cstr1(X[1],1,X[2],1)
b install and tell cstr2(X[1],0,X[0],1,X[2],0)
proceed
130
X(0)=adresse de X
X(1)=adresse de Y
X(2)=adresse de Z
Z <= [X,Y]
-Z <= [-X]
-Z <= [-Y]
X <= [Z]
-X <= [Y,-Z]
Y <= [Z]
-Y <= [X,-Z]
retour Prolog
Tableau 30 : code genere pour and(X,Y,Z)
SI X est un entier, celui-ci doit ^etre egal a Bvalue :
X = Bvalue : succes (VerifEntier)
X 6= Bvalue : echec (EchecEntier)
sinon X (une variable booleenne) est instancie a l'entier Bvalue (ReducDomaine) et
toutes les contraintes dependant de X (i.e. chaque enregistrement de Chain Bvalue) est
reconsidere comme suit :
cas n = 1 : la paire (X0; Bvalue0) est mise en le.
cas n = 2 : supposons que X = X1 (le cas X = X2 etant similaire), la variable X2
doit ^etre testee pour decider si la contrainte peut ^etre resolue :
X2 est un entier : si X2 = Bvalue2 alors la paire (X0; Bvalue0) est mise en le
sinon la contrainte est deja resolue (DejaResolue).
X2 est une variable booleenne : la contrainte ne peut encore ^etre resolue (Suspend).
Ainsi, chaque contrainte (i.e. paire) (X; Bvalue) presente en le de propagation sera activee
avec pour issue un des trois possibilites suivantes :
ReducDomaine : la variable booleenne X est instanciee a Bvalue.
VerifEntier : X est deja egal a Bvalue.
CHAPITRE 5. CONTRAINTES BOOLEENNES
131
EchecEntier : X est un entier dierent de Bvalue (i.e. X = 1 Bvalue).
Quand une contrainte (X; Bvalue) a pour issue ReducDomaine la phase de propagation
reconsidere toutes les contraintes dependant de la liste appropriee de X . Chaque contrainte
de la liste est soit mise en le pour ^etre activee (debouchant sur une des issues decrites
ci-dessus) soit ignoree (dans le cas n = 2) d^u a :
Suspend : l'autre variable impliquee n'est pas encore instanciee. Ce n'est que lorsque
celle-ci le sera (et a la bonne valeur) que la contrainte sera resolue.
DejaResolue : l'autre variable impliquee est instanciee mais pas a la valeur desiree.
Le corps de la contrainte n'est donc pas satisfait (c'est sa negation qui l'est) et donc
la contrainte est trivialement satisfaite.
La gure 19 nous permet d'evaluer les proportions de chaque issues pour quelques instances
des programmes de test.
11200
38000
8400
28500
5600
19000
2800
9500
0
0
ReducDomaine
VerifEntier
pigeon 6/6
schur 13
EchecEntier
Suspend
63800
150000
47850
112500
31900
75000
15950
37500
0
DejaResolue
0
queens 8
ramsey 13
Figure 19 : proportion de chaque issue de la procedure de consistance
Tout comme pour clp(FD), l'issue VerifEntier correspond a un Tell inutile puisqu'il
reussit sans modier la variable contrainte. Ici encore des optimisations sont envisageables
CHAPITRE 5. CONTRAINTES BOOLEENNES
132
pour eviter de telles reactivations inutiles. Toutefois, les resultats empiriques nous ont montres que ce genre d'optimisations permettaient bien de reduire le nombre de reactivations
inutiles mais que cela ne se traduisait pas par un gain sur le temps d'execution. En eet,
un Tell inutile se reduit a une comparaison entre deux entiers (i.e. X = Bvalue) et la
detection de l'inutilite de cette operation necessite aussi un test d'entiers.
Notons que l'issue DejaResolue correspond aussi a un travail inutile puisque la contrainte
est deja satisfaite (cf. optimisation 2 de clp(FD) en section 4.3.3).
5.5.5 Evaluation de clp(B)
La table 31 montre les performances de clp(B) (temps en sec.) et les facteurs d'accelerations (ou de ralentissements si precede su symbole #) de clp(B) par rapport aux autres
principaux resolveurs testes precedemment. Une etude de ce tableau nous montre que
clp(B) est environ deux fois plus rapide que clp(B/FD). Ce facteur ne varie que tr
es
legerement (de 1.5 a 2.5) suivant les problemes et traduit le fait que les deux systemes
eectuent les m^emes elagages de l'arbre de recherche. L'ecart avec les autres resolveurs
devient donc encore plus grand, cf. facteur de plus de 300 avec CHIP sur schur 100 ou
de plus de 200 avec les BDD sur queens 8. Dans un moindre degre clp(B) est pres de 10
fois plus rapide que la methode enumerative et la methode de consistance booleenne.
5.6 Conclusion
Nous avons etudie dans ce chapitre l'impact de la propagation locale pour resoudre des
problemes booleens. Gr^ace a l'approche RISC de clp(FD) nous avons pu denir facilement
un resolveur de contraintes booleennes : clp(B/FD). Celui-ci est tres ecace, en moyenne
huit fois plus rapide que le meilleur resolveur booleen de CHIP, et plusieurs fois plus rapide
que les resolveurs booleens dedies, que ceux-ci soient bases sur les BDD, l'enumeration a
la Davis-Putnam, la consistance locale booleenne ou des techniques de recherche operationnelle. Dans un second temps nous avons concu clp(B), un resolveur entierement dedie
aux booleens en etudiant les simplications que l'on pouvait apporter a clp(FD) lorsque
seuls les contraintes booleennes etaient utilisees. Le gain en performance est de l'ordre d'un
facteur 2.
CHAPITRE 5. CONTRAINTES BOOLEENNES
Programme
schur 13
schur 14
schur 30
schur 100
pigeon 6/5
pigeon 6/6
pigeon 7/6
pigeon 7/7
pigeon 8/7
pigeon 8/8
queens 7
queens 8
queens 9
queens 10
queens 14 1st
queens 16 1st
queens 18 1st
queens 20 1st
ramsey 12 1st
ramsey 13 1st
ramsey 14 1st
ramsey 15 1st
ramsey 16 1st
clp(B)
Temps (s)
0.040
0.040
0.100
0.620
0.020
0.180
0.110
1.390
0.790
12.290
0.090
0.230
0.860
3.000
0.500
1.510
4.450
17.130
0.130
0.690
1.060
292.220
721.640
clp(B/FD)
clp(B)
2.50
2.50
2.50
1.89
2.50
2.00
2.81
1.91
2.81
1.97
1.88
2.34
2.48
2.75
1.74
2.17
2.35
2.51
1.46
2.17
2.28
2.39
2.52
133
CHIP Meil. BDD Enum BCons
clp(B)
clp(B)
clp(B) clp(B)
20.57
27.75 20.25
1.75
22.00
35.75 22.00
2.00
93.70 overflow
?
?
322.83 overflow
?
?
15.00
3.00
2.00
6.50
10.00
# 1.80 12.72 4.88
15.45
1.00
7.63
7.90
9.67
# 5.56
?
5.20
16.12
# 2.54
?
8.63
9.58
# 21.18
?
5.49
?
50.55
4.11
?
19.17
233.73
6.26
7.86
19.37 overflow
8.02
9.01
22.27 overflow
? 10.90
12.56 overflow
?
6.28
17.47 overflow
? 11.89
20.27 overflow
?
?
22.93 overflow
?
?
10.53 overflow
?
?
11.13 overflow
?
?
31.30 overflow
?
?
32.10 overflow
?
?
44.17 overflow
?
?
Tableau 31 : clp(B) versus les autres resolveurs
Un point important a developper, pour ameliorer encore les performances de clp(B/FD)
ou de clp(B), est d'integrer des heuristiques plus complexes pour la phase d'enumeration,
adaptees au cas particulier des booleens. En eet clp(FD) n'a comme heuristique que
le rst-fail classique, qui va choisir d'enumerer d'abord les valeurs de la variable dont le
domaine est le plus petit. Ceci ne sert a rien dans le cas des booleens (toutes les variables
non encore instanciees ont un domaine de cardinalite 2). Il faudrait donc pouvoir determiner
par exemple le ou les variables qui apparaissent dans le plus de contraintes pour generaliser
cette notion de rst-fail. Ceci necessite cependant de pouvoir determiner si une contrainte
est toujours veriee ou dementie dans l'ensemble courant de contraintes, techniques que
nous allons etudier dans le chapitre 6.
Chapitre 6
Detection de la satisfaction de
contraintes
6.1 Introduction
Nous allons nous interesser ici au probleme que pose la detection de la satisfaction d'une
contrainte. Comme nous l'avons deja vu, une telle detection permet d'optimiser l'operation
Tell. Mais elle permettra aussi de denir l'operation Ask (cf. section 7.2) qui, intuitivement, attend qu'une certaine contrainte soit satisfaite pour lancer l'execution d'un calcul
(consistant souvent en des ajouts de nouvelles contraintes). Ce probleme de detection
de satisfaction appartenant a la redoutable famille NP, nous ne pouvons esperer (tout
comme pour arc-consistency) avoir a la fois une detection complete et ecace. C'est pour
cette raison que nous utiliserons une approximation de la condition exacte de satisfaction.
Nous presenterons trois schemas de detection se dierenciant par le degre de precision de
l'approximation utilisee. Nous utiliserons les exemples suivants pour les comparaisons de
precision.
Exemple 6.1
'x=
6 y'(X,Y):
X in -dom(Y),
Y in -dom(X).
(c X )
(cY )
le contenu de ce chapitre a ete publie dans [17].
134
3
CHAPITRE 6. DETECTION DE LA SATISFACTION DE CONTRAINTES
Exemple 6.2
'x2y'(X,Y):-
X in 2*min(Y)..infinity
Y in 0..max(X)/<2.
(c X )
(cY )
135
3
Remarquons que les contraintes de l'exemple 6.1 sont anti-monotones alors que celles de
l'exemple 6.2 sont monotones (cf. section 2.3).
Rappelons la denition de la relation de satisfaction ` sous-jacente a notre systeme de
contraintes :
Denition 6.1 Un store S satisfait une contrainte c X
store S 0 plus contraint que S , i.e.
in
S ` c ssi 8S 0 S 0 v S ) XS rS
0
r ssi c est vraie dans tout
0
L'inconvenient de cette denition est qu'elle met en oeuvre des tests pour tout store plus
contraint que le courant. Elle ne peut donc ^etre utilisee de maniere ecace pour tester
la satisfaction. De plus, du fait qu'elle verie (Struct) (i.e. S [ fcg ` c) elle ne nous est
d'aucune utilite pour ameliorer l'optimisation 2. En eet, pour cela il nous faut detecter
qu'une contrainte c appartenant au store courant ne necessite plus d'^etre reevaluee car elle
est satisfaite. Or, d'apres (Struct) du fait que c appartient au store, c est satisfait. Donc
` n'est pas apte a capturer les etapes intermediaires que representent les reductions de
domaines. Denissons alors une relation de satisfaction plus forte :
Denition 6.2 Un store S satisfait fortement une contrainte c X
ssi
S `f c ssi 8S 0 S 0 v S ) XS rS
in
r (note `f )
0
Desormais nous ne considerons plus XS mais XS . Il reste toutefois le fait que cette denition implique l'evaluation de r dans tout store plus contraint que S . Toutefois, si nous
pouvons nous assurer que 8S 0 S 0 v S ) rS rS (i.e. r est anti-monotone) alors il sut
de verier XS rS , ce qui n'implique que de tester le store courant. De plus, cette relation est particulierement bien adaptee pour ameliorer l'optimisation 2 puisqu'elle detecte
la satisfaction d'une contrainte X in r a la seule vue du store courant, ce qui ne peut se
faire qu'en concluant que X ne sera plus reduit.
0
0
La proposition suivante nous montre que `f est une relation plus forte que `.
CHAPITRE 6. DETECTION DE LA SATISFACTION DE CONTRAINTES
Proposition 6.1 Si S `f c alors S ` c.
Preuve :
triviale du fait que 8S 0 S 0 v S ) XS XS .
136
2
0
Nous allons donc nous interesser a la detection de S `f c plut^ot qu'a la detection de
S ` c. Soulignons que ceci constitue la premiere approximation pour la detection de la
satisfaction.
Denition 6.3 Soit une contrainte c X
comme : E (c) dom(X ) r.
in
r, E (c) est la formule syntaxique denie
Etant donne un store S , cette formule s'evalue a vrai ou faux de maniere evidente par la
valeur de verite de E (c)S XS rS . La proposition suivante est celle sur laquelle reposera
la detection de satisfaction.
Proposition 6.2 Si c est anti-monotone alors : E (c)S ) S `f c.
Preuve :
puisque c est anti-monotone nous avons 8S 0 S 0 v S ) rS rS
supposons que E (c)S soit vraie (i.e. XS rS )
nous pouvons donc en conclure que 8S 0 S 0 v S ) XS rS rS
c'est-a-dire que 8S 0 S 0 v S ) XS rS , ce qui revient a dire que S `f c.
0
0
0
2
Remarques :
la propriete 6.2 nous indique que E (c) est une condition susante pour detecter la
satisfaction de toute contrainte c anti-monotone.
cette propriete reste vraie si, au lieu de tester tout le domaine de X , on se contente de
tester l'intervalle qui le contient, (i.e. E (X in r) min(X)..max(X) r) puisque
8S XS (min(X )..max(X ))S . Ceci constitue une approximation supplementaire.
Dans ce qui suit nous presenterons des approximations de r et non pas de X . Ainsi,
lorsque nous en viendrons a avoir des conditions du type min(X)..max(X) r ce
sera uniquement qu'elles sont equivalentes a dom(X) r (i.e. r est un intervalle).
Il est toutefois possible d'ajouter cette approximation a tous les schemas que nous
presenterons.
l'aspect statique de cette condition, generee a partir de la syntaxe d'une contrainte,
CHAPITRE 6. DETECTION DE LA SATISFACTION DE CONTRAINTES
137
permet d'envisager une compilation de ces conditions.
E (c) contient toutes les variables presentes dans c. Ainsi, cette condition doit ^etre
(re)testee a chaque fois qu'une de ces variables est modiee. Du point de vue de
l'implantation, les cha^nages de dependances des variables DF pourront ^etre etendus
pour egalement referencer ces conditions qui seront alors (re)evaluees au moment
propice.
il est facile de generaliser cette condition pour l'adapter aux contraintes utilisateur
exprimees comme conjonctions de contraintes X in r. En eet, soit une contrainte
utilisateur c denie comme :
c : c1; : : : ; cn:
alors :
E (c) =
^n
i=1
E (ci)
E (:c) =
_n
i=1
E (:ci)
remarquons que dans bien des cas E (c) peut ^etre simplie si les contraintes ci com-
posant c sont equivalentes (c'est le cas de nos deux exemples). Aussi est-il possible de
choisir comme condition pour c n'importe laquelle des conditions pour ci ou m^eme
leur disjonction. Notons toutefois qu'une telle detection d'equivalence n'est pas triviale. Nous montrerons en section 6.4.1 comment detecter certaines equivalences des
formules E (ci) permettant la m^eme simplication de E (c).
Qu'en est-il toutefois de la satisfaction d'une contrainte c qui n'est pas anti-monotone (ce
qui est generalement le cas) ? L'idee consiste a deriver de cette contrainte c une approximation sous la forme d'une contrainte c0 anti-monotone telle que sa satisfaction implique
celle de c. La detection de sa satisfaction se fait alors gr^ace a la proposition 6.2. Les 3
approximations suivantes se distinguent par la maniere de denir c0.
6.2 Approximation 1 : test a la cl^oture
Dans cette approximation, c0 correspond tout simplement a c mais le test de detection
n'est eectue qu'a partir du moment ou c est anti-monotone. Pour cela il sut d'attendre
que c soit totalement instanciee, i.e. qu'elle denote un ensemble constant. Dans ce qui suit
CHAPITRE 6. DETECTION DE LA SATISFACTION DE CONTRAINTES
138
nous utiliserons egalement cette approximation pour les contraintes anti-monotones dans
un souci d'homogeneite de la precision.
Denition 6.4 Soit une contrainte c X in r ; E1(c) est la formule syntaxique denie
comme : E1 (c) ground(r) ^ dom(X ) r.
Remarques :
cette strategie peut ^etre vue comme un forward checking pour la detection.
en ce qui concerne E1 (c c1 ^ ::: ^ cn), si nous pouvons detecter que tous les ci
sont equivalents, il vaut mieux prendre la disjonction des conditions E (ci) puisque
chacune est soumise a ses propres restrictions de cl^oture. La conjonction entrainerait
bien souvent une detection uniquement lorsque toutes les variables sont instanciees
(y compris X dans X in r). Toutefois, comme nous l'avons deja dit, il n'est pas
trivial de decider de l'equivalence entre contraintes dans le cas general.
a partir de l'exemple 6.1 nous derivons :
E1 (cX ) = ground(Y) ^ dom(X) -dom(Y) E1 (cY ) = ground(X) ^ dom(Y) -dom(X) ground(Y)
ground(X)
^ Y 26
^ X 26
dom(X)
dom(Y)
puisque cX et cY sont equivalents :
E1 (X 6= Y ) = E1(cX ) _ E1 (cY )
(ground(Y) ^ Y 62 dom(X)) _
(ground(X) ^ X 62 dom(Y))
La satisfaction de X =
6 Y est declenchee aussit^ot que l'une des deux variables est
instanciee et elle est detectee aussit^ot que le domaine de l'autre variable ne contient
plus la valeur de la variable instanciee.
a partir de l'exemple 6.2 nous derivons :
E1 (cX ) = ground(Y) ^ dom(X) 2*Y..infinity
ground(Y) ^ min(X) 2*Y
E1 (cY ) = ground(X) ^ dom(Y) 0..X/<2
ground(X) ^ max(Y) X/<2
puisque cX et cY sont equivalents :
CHAPITRE 6. DETECTION DE LA SATISFACTION DE CONTRAINTES
139
E1 (X 2 Y ) = E1 (cX ) _ E1(cY )
(ground(Y) ^ min(X) 2*Y) _
(ground(X) ^ max(Y) X/<2)
Ici aussi la satisfaction de X 2 Y est declenchee aussit^ot que l'une des deux
variables est instanciee.
l'avantage de cette approximation est le tres faible co^ut de la detection puisqu'elle
n'est declenchee que tardivement. Evidemment cet avantage devient un inconvenient
en ce qui concerne la precision de la detection qui est assez faible.
enn, ce schema peut comporter diverses variantes pour la detection de X
r
comme d'attendre que X soit egalement clos, d'attendre que seul un ensemble restreint de variables de r soit clos (assurant toutefois que r est anti-monotone), etc...
in
6.3 Approximation 2 : test sur les domaines
L'idee consiste, dans le cas d'une contrainte c qui n'est pas anti-monotone, a produire une
contrainte c0 plus forte que c qui elle est anti-monotone.
Denition 6.5 Soit inf (resp. sup) la fonction de TermSyn dans lui-m^eme denie en
table 32.
Terme t
ct
min(Y )
max(Y )
t1 : t2 (: 2 f+;*g)
t1 : t2 (: 2 f-;/<;/>g)
inf (t)
ct
min(Y )
min(Y )
inf (t1 ) : inf (t2 )
inf (t1 ) : sup(t2)
sup(t)
ct
max(Y )
max(Y )
sup(t1) : sup(t2)
sup(t1) : inf (t2)
Tableau 32 : denition de inf (t) et sup(t)
Intuitivement, inf (t) (resp. sup(t)) represente la plus petite (resp. grande) valeur que t
puisse prendre.
Proposition 6.3 (correction de inf et sup)
8S; t Inf (t)S tS Sup(t)S .
CHAPITRE 6. DETECTION DE LA SATISFACTION DE CONTRAINTES
140
Preuve :
triviale par induction sur les termes et de par les proprietes de (de)croissance des operations
arithmetiques +; ; ; b=c; d=e.
2
Denition 6.6 Soit A (resp. M ) la fonction de DomSyn dans lui-m^eme presentee en
table 33. Par abus de notation on denit A(c) (resp. M (c)) pour toute contrainte c X
in
r comme la contrainte X
in
Domaine r
t1 ..t2
dom(Y )
r1 : r2 (: 2 f:;&g)
-r
r : ct (: 2 f+;-;*;/g)
A(r) (resp. X
in
M (r)).
A(r )
sup(t1)..inf (t2 )
A(min(Y )..max(Y ))
A(r1 ) : A(r2)
-M (r )
A(r) : ct
M (r )
inf (t1 )..sup(t2)
dom(Y )
M (r1 ) : M (r2 )
-A(r )
M (r) : ct
Tableau 33 : denition de A(r) et M (r)
Proposition 6.4 A(r) est un domaine anti-monotone et M (r) est un domaine monotone.
Preuve :
triviale par induction structurelle sur les domaines et du fait de la proposition 6.3.
Proposition 6.5 8S; r A(r)S rS M (r)S
Preuve :
2
2
triviale par induction structurelle sur les domaines.
Corollaire 6.1 (correction) 8S; c S `f A(c) ) S `f c
Preuve :
il sut de montrer que S `f X in A(r) ) S `f X in r.
C'est-a-dire 8S 0 S 0 v S dom(X )S A(r)S ) dom(X )S rS . Ce qui se deduit triviale0
0
2
ment de la proposition precedente.
Denition 6.7 Soit une contrainte c X
comme : E2 (c) dom(X ) A(r).
Remarques :
in
r ; E2(c) est la formule syntaxique denie
CHAPITRE 6. DETECTION DE LA SATISFACTION DE CONTRAINTES
141
cette strategie peut ^etre vue comme un full lookahead pour la detection.
a partir de l'exemple 6.1 nous derivons :
E2 (cX ) = dom(X) -dom(Y) dom(X) \
E2 (cY ) = dom(Y) -dom(X) dom(Y) \
dom(Y) =
dom(X) =
;
;
puisque cX et cY sont equivalents :
E2 (X 6= Y ) = E2(cX ) ^ E2 (cY ) E2 (cX )
dom(X) \ dom(Y) = ;.
La satisfaction de X 6= Y est donc detectee aussit^ot que les domaines de X et Y sont
disjoints. E2 est donc bien plus precis que E1 .
a partir de l'exemple 6.2 nous derivons :
E2 (cX ) = dom(X) 2*max(Y)..infinity min(X) E2 (cY ) = dom(Y) 0..min(X)/<2
max(Y) 2*max(Y)
min(X)/<2
puisque cX et cY sont equivalents :
E2 (X 2 Y ) = E2 (cX ) ^ E2(cY ) E2(cX )
min(X) 2*max(Y)
La satisfaction de X 2 Y sera detectee aussit^ot que tout le domaine de X sera
plus grand (\a droite") que le domaine 2 Y . Ici aussi E2 est donc bien plus precis
que E1 .
l'avantage de cette approximation est la precision de la detection. Son inconvenient
majeur est le co^ut des operations sur les domaines. Par exemple, la detection de
X 6= Y demande une intersection a chaque modication du domaine de X ou du
domaine de Y . Ceci peut ^etre bien souvent trop co^uteux. Notons toutefois que dans
certains cas cette condition ne peut ^etre vraie que si X et/ou r sont clos. C'est
notamment le cas si r = dom(Y ) ou si r = t1 ..t2 et que t1 et t2 sont les m^emes
termes aux sous-termes indexicaux min(Y ) et max(Y ) pres (i.e. inf (t1) = inf (t2 )).
Ces cas sont faciles a detecter et peuvent donner lieu a une compilation specique
(se ramenant a l'approximation 1).
CHAPITRE 6. DETECTION DE LA SATISFACTION DE CONTRAINTES
142
6.4 Approximation 3 : test sur les intervalles
Le but de cette approximation est de fournir un compromis entre les deux premieres approximations. Elle est bien plus precise que l'approximation 1 (mais un peu moins ecace)
tout en etant moins precise que l'approximation 2 (mais plus ecace). L'idee principale
est d'eviter les operations sur les domaines en generalisant, quand cela est possible, la
simplication faite precedemment lorsque nous avons ecrit :
E2 (cX ) = dom(X) 2*max(Y)..infinity
min(X) 2*max(Y)
En eet, les conditions generees avec l'approximation 2 sont de la forme dom(X ) A(r)
faisant donc toujours intervenir des operations sur les domaines. Toutefois, si A(r) est un
intervalle t1..t2 nous pouvons reduire cette condition a la condition equivalente :
min(
X ) t1 ^
max(
X ) t2
Ce faisant nous n'avons rien perdu en precision tout en gagnant sur le co^ut des operations.
Pour appliquer ce principe nous devrons nous limiter a un sous-ensemble de contraintes
sur lequel A(r) peut ^etre exprime sous la forme d'un intervalle (ou d'unions/intersections
d'intervalles).
L'obtention d'un intervalle pour le test va se faire en deux temps. Premierement redenissons M pour le cas r = dom(Y ) tel que M (dom(Y )) = M (min(Y )..max(Y )) au lieu de
l'ancienne valeur dom(Y ) (cf. table 34). Notons que cela ne remet pas en cause la validite
de la proposition 6.5 du fait que 8S XS (min(X )..max(X ))S . Ceci ne remet donc pas
en cause le corollaire 6.1 assurant la correction. Cette modication nous assure desormais
que tous les domaines \terminaux" (i.e. les feuilles de l'arbre syntaxique) de A(r) sont des
intervalles. Notons egalement que nous avons restreint les domaines possibles pour r (i.e.
X in r*ct et X in r/ct ne peuvent ^etre traites dans ce schema).
Denition 6.8 Soit une contrainte c X
comme : E (c) min(X)..max(X) A(r).
in
r ; E (c) est la formule syntaxique denie
Le systeme de reecriture suivant va alors simplier l'expression E (c) pour faire dispara^tre
le test d'inclusion de domaine et le remplacer par des tests de bornes d'intervalles. Les
termes manipules par le systeme de reecriture sont donc de la forme r1 r2 ou r1 et r2
sont des domaines. Etant donnee la liste de regles suivante, nous iterons du haut vers le
CHAPITRE 6. DETECTION DE LA SATISFACTION DE CONTRAINTES
Domaine r
t1 ..t2
dom(Y )
r1 : r2 (: 2 f:;&g)
-r
r : ct (: 2 f+;-g)
A(r )
sup(t1)..inf (t2 )
A(min(Y )..max(Y ))
A(r1) : A(r2 )
-M (r )
A(r) : ct
143
M (r )
inf (t1 )..sup(t2 )
M (min(Y )..max(Y ))
M (r1 ) : M (r2 )
-A(r )
M (r) : ct
Tableau 34 : nouvelle denition de A(r) et M (r)
bas sur celle-ci, appliquant une regle si elle n'a pas encore ete utilisee. Une regle s'applique
si sa partie gauche ltre une sous-formule de la condition a normaliser et la remplace par
la partie droite de la regle. Lorsqu'une regle s'applique, le processus est itere a partir du
debut de la liste.
COM : les operations de complementation sont explicitees :
-(t1 ..t2 ) ! 0..t1 -1:t2 +1..infinity
IU : les intersections donnent lieu a des conjonctions et les unions a des disjonctions :
r r1 & r2 ! r r1 ^ r r2
r r1 : r2 ! r r1 _ r r2
DIS : les operations sur l'ensemble du domaine sont distribuees sur les bornes :
(t1 ..t2 ) . ct ! t1 :ct..t2 :ct
(: 2 f+,-g)
INC : les inclusions deviennent des tests de bornes :
t1 ..t2 t3..t4 ! t1 t3 ^ t2 t4
Denition 6.9 Soit une contrainte c et E (c) la condition denie ci-dessus. L'on denit
alors E3 (c) comme la simplication de E (c) par les regles de reecritures.
Proposition 6.6 (terminaison de la reecriture) La simplication de toute condition E
termine.
Preuve :
La terminaison est assuree du fait que COM remplace une operation de complementation
par une union, IU remplace une intersection (resp. une union) par une conjonction (resp.
une disjonction), DIS remplace une operation sur l'ensemble du domaine par une operation
sur les bornes et INC remplace une inclusion par une conjonction.
2
CHAPITRE 6. DETECTION DE LA SATISFACTION DE CONTRAINTES
144
Proposition 6.7 (correction de la reecriture) E(c) est equivalent a sa forme simpliee
E3 (c).
Preuve :
ce qui est assure du fait que toute regle remplace une partie gauche par une partie droite
equivalente.
2
Exemple 6.3
Soit c X in -dom(Y), A(c) = X in -(min(Y)..max(Y))
E (c) = min(X)..max(X) -(min(Y)..max(Y))
! COM min(X)..max(X) 0..min(Y)-1 : max(Y)+1..infinity
! IU min(X)..max(X) 0..min(Y)-1 _
min(X)..max(X) max(Y)+1..infinity
! INC (min(X) 0 ^ max(X) min(Y)-1) _
(min(X)..max(X) max(Y)+1..infinity)
! INC (min(X) 0 ^ max(X) min(Y)-1) _
(min(X) max(Y)+1 ^ max(X) infinity)
Remarques :
cette strategie peut ^etre vue comme un partial lookahead pour la detection.
a partir de l'exemple 6.1 nous derivons :
E (cX ) = min(X)..max(X) -(min(Y)..max(Y))
E (cY ) = min(Y)..max(Y) -(min(X)..max(X))
apres simplication par reecriture (cf. exemple 6.3) :
E3 (cX ) (min(X) 0 ^ max(X) min(Y)-1) _
(min(X)
E3 (cY ) (min(Y)
(min(Y)
max(Y)+1 ^ max(X) infinity
0 ^ max(Y) min(X)-1) _
max(X)+1 ^ max(Y) infinity)
qui se simplie en :
E3 (cX ) max(X) min(Y)-1 _ min(X) E3 (cY ) max(Y) min(X)-1 _ min(Y) puisque cX et cY sont equivalents :
max(Y)+1
max(X)+1
3
CHAPITRE 6. DETECTION DE LA SATISFACTION DE CONTRAINTES
E3 (X 6= Y ) = E3(cX ) ^ E3 (cY ) E3 (cX )
max(X) min(Y)+1
_
min(X)
145
max(Y)+1
Ainsi, la satisfaction de X 6= Y est detectee aussit^ot que les domaines de X et Y ne
se chevauchent plus. E3 est donc moins precis que E2 mais bien plus que E1 .
a partir de l'exemple 6.2 nous derivons :
E (cX ) = dom(X) 2*max(Y)..infinity
E (cY ) = dom(Y) 0..min(X)/<2
et apres reecriture :
E3 (cX ) = min(X) 2*max(Y) ^ max(X) infinity min(X) E3 (cY ) = min(Y) 0 ^ max(Y) min(X)/<2
max(Y) puisque cX et cY sont equivalents :
E3 (X 2 Y ) = E3 (cX ) ^ E3(cY ) E3(cX )
min(X) 2*max(Y)
min(X)/<2
2*max(Y)
Nous obtenons donc la m^eme precision que celle fournie par l'approximation 2.
E3 (c) ne contient que des operations sur les entiers et devient de ce fait beaucoup plus
ecace a tester que E2(c) dans le cas general. Ici encore les cas detectables ou E3 (c)
ne peut ^etre vraie que sous certaines conditions de cl^otures peuvent ^etre optimises
(cf. remarques pour l'approximation 2).
E3 (c) moins precis que E2 (c) seulement si c contient des operations de complementation du fait de la redenition de M (-r).
6.4.1 Equivalence des conditions susantes
Dans ce qui suit, nous denissons des regles de reecriture permettant de normaliser les
conditions de satisfaction pour pouvoir detecter leur equivalence. Soit c une contrainte
lineaire et E3(c) sa condition de satisfaction. La normalisation de E3 (c) se fait en reecrivant
cette formule en une forme normale disjonctive ou chaque terme dans E3(c) est remplace
par sa forme normale additive. Etant donnee la liste de regles suivantes, nous iterons du
haut vers le bas sur celle-ci, appliquant une regle si elle n'a pas encore ete utilisee. Une
CHAPITRE 6. DETECTION DE LA SATISFACTION DE CONTRAINTES
146
regle s'applique si sa partie gauche ltre une sous-formule de la condition a normaliser et
la remplace par la partie droite de la regle. Lorsqu'une regle s'applique, le processus est
itere a partir du debut de la liste.
DNF : la forme normale disjonctive d'une condition est calculee par la regle suivante :
E ^ (E1 _ E2 ) ! (E ^ E1 ) _ (E ^ E2)
(E1 _ E2 ) ^ E ! (E1 ^ E ) _ (E2 ^ E )
ANF : les regles suivantes calculent la forme normale additive d'un terme :
t*(t1 t2 ) ! t*t1 t*t2 ( 2 f+;-g)
(t1 t2 )*t ! t1*t t2*t ( 2 f+;-g)
STA : les soustractions deviennent des additions :
t1 -t t2 ! t1 t2 +t ( 2 f; g)
t1 t2 -t ! t1+t t2 ( 2 f; g)
DTM : les divisions deviennent des multiplications :
t1 /<t t2 ! t1 t2 *t
t1 />t t2 ! t1 t2 *t
t1 t2 /<t ! t1 *t t2
t1 t2 />t ! t1 *t t2
Denition 6.10 Soit une contrainte c et E3(c) sa condition de satisfaction. On denit
alors (c) comme la normalisation de E3(c) par les regles de reecriture.
Soient (c1 ) et (c2) deux conditions normalisees associees aux contraintes c1 et c2. On
dit que (c1) et (c2) sont egales (modulo la commutativite et l'associativite de ^ et de
_ ) si chaque paire d'inegalites associees dans (c1) et (c2) sont egales. Deux inegalites
t1 t2 et t3 t4 sont egales ssi t1 et t3 sont egaux et t2 et t4 sont egaux, ou l'egalite entre
termes est denie comme l'identite modulo la commutativite et l'associativite de + et .
Proposition 6.8 (terminaison) La normalisation de toute condition E3 (c) termine.
Preuve :
la terminaison est assuree du fait que : DNF remplace une conjonction par deux conjonctions de taille inferieure, ANF remplace un produit par deux produits de taille inferieure,
CHAPITRE 6. DETECTION DE LA SATISFACTION DE CONTRAINTES
147
STA remplace une soustraction par une addition et DTM remplace une division par une
2
multiplication.
Proposition 6.9 (correction) Si (c1) et (c2 ) sont decides equivalents alors E3 (c1) est
vrai ssi E3 (c2 ) est vrai.
Preuve :
il sut pour cela de prouver que chaque regle conserve l'equivalence c'est-a-dire que pour
toute regle l ! r on a l , r. Ce qui est trivialement vrai pour DNF, ANF et STA.
Seules les regles de DTM necessitent une attention particuliere a cause du probleme pose
par les divisions entieres. Nous allons etudier le cas general x div y z , x z y ou x, y et
z sont des entiers et y > 0, div 2 fb=c; d=eg et 2 f<; ; ; >g. La table suivante montre
la validite des 8 formules possibles.
Formule
bx=yc < z , x < z y
dx=ye > z , x > z y
bx=yc z , x z y
dx=ye z , x z y
bx=yc > z 6, x > z y
dx=ye < z 6, x < z y
bx=yc z 6, x z y
dx=ye z 6, x z y
Preuve
voir preuve 1
voir preuve 1'
voir preuve 2
voir preuve 2'
x = 7; y = 2; z = 3
x = 7; y = 2; z = 4
x = 7; y = 2; z = 3
x = 7; y = 2; z = 4
Les preuves suivantes se basent sur le fait que bx=yc x=y < bx=yc + 1.
preuve 1: bx=yc < z , x < z y
) : bx=yc < z ) bx=yc + 1 z or x=y < bx=yc + 1 donc x=y < z i.e. x < z y.
( : x < z y ) x=y < z or bx=yc x=y donc bx=yc < z.
preuve 2: bx=yc z , x z y
) : bx=yc z or x=y bx=yc donc x=y z i.e. x z y.
( : x z y ) x=y z or bx=yc + 1 > x=y donc bx=yc + 1 > z ) bx=yc z.
La preuve 1' (resp. 2') s'obtient a partir de la preuve 1 (resp. 2) en interchangeant : bx=yc
et dx=ye, < et >, et , et +.
2
CHAPITRE 6. DETECTION DE LA SATISFACTION DE CONTRAINTES
148
Comme nous l'avons vu il n'est pas toujours possible de remplacer une division entiere par
une multiplication. Toutefois, cela est toujours le cas pour les contraintes \bien ecrites"
(intuitivement, dans un intervalle monotone, c'est la division arrondie par exces qui doit
^etre utilisee dans une borne inferieure et celle par defaut dans la borne superieure). Cette
maniere d'ecrire une contrainte permet en eet le meilleur elagage. Que se passe-t-il si cette
methodologie n'est pas respectee ? Reconsiderons la contrainte X 2 Y pour la denir
comme :
Exemple 6.4
'x2y'(X,Y):-
X in 2*min(Y)..infinity
Y in 0..max(X)/>2.
(c X )
(cY )
3
donc :
(cX ) E3 (cX ) min(X) 2*max(Y) et
(cY ) E3(cY ) max(Y) min(X)/<2
les 2 formules sont normalisees donc pas egales. Ceci n'est pas un cas d'incompletude de
la methode car ces deux formules ne sont pas equivalentes comme on peut le verier sur le
store suivant : S = fX in 9..15, Y in 0..4g puisque E3 (cX )S est vraie alors que E3 (cY )S
est fausse. Ces deux conditions n'ont pas la m^eme precision, l'approximation de E3(cY ) est
plus grande que celle de E3(cX ).
Enn, notons que cet algorithme est incomplet puisque, par exemple, il ne peut detecter
l'equivalence entre les deux formules suivantes :
E3 (X
E3 (X
in 1..5 : 6..10)
in 1..10)
= (min(X) =
(min(X)
min(X)
^
6^
1^
1
max(X)
max(X)
max(X)
5)
_
10)
10
Chapitre 7
Contraintes complexes
Dans ce chapitre nous etudierons comment peuvent ^etre denies certaines contraintes de
haut niveau. Cela nous amenera parfois a denir certaines extensions au systeme presente
jusqu'alors.
7.1 Contraintes arithmetiques lineaires
Denition 7.1 Une contrainte arithmetique lineaire est une expression E F ou E et F
sont deux expressions arithmetiques lineaires et 2 f=; =
6 ; <; ; ; >g.
7.1.1 Normalisation
La compilation d'une contrainte arithmetique consiste tout d'abord a normaliser la contrainte.
Denition 7.2 La forme normale d'une contrainte arithmetique E F est une expression
de la forme S T ou S = a1 x1 + : : : + ak xk + c et T = ak+1 xk+1 + : : : + an xn + d.
Chaque xi est une variable distincte, chaque ai est un entier > 0, c et d sont deux entiers
positifs et soit c soit d vaut 0.
une partie du contenu de ce chapitre a ete publiee dans [25].
149
CHAPITRE 7. CONTRAINTES COMPLEXES
150
Par exemple, la normalisation de 2F +2H 20 = F +3H G 10 donne F +G = H +10.
Cette normalisation permet de regrouper les variables et d'obtenir des approximations
pour celles-ci (i.e. les intervalles min::max) plus precises que celles obtenues en traitant
separement plusieurs occurrences d'une m^eme variable. En eet, arc-consistency donnant
lieu a des approximations (en particulier avec un raisonnement sur les bornes), si toutes les
occurrences d'une m^eme variable X sont traitees separement elles donnent lieu a autant
d'approximations. Au niveau de la variable X , l'approximation resultante englobera toutes
les approximations associees aux diverses occurrences. Par contre, si toutes les occurrences
de X sont factorisees, la seule approximation resultante est beaucoup moins grossiere.
Apres cette etape, chaque terme normalise (S et T ) est alors trie par ordre decroissant
sur les coecients de maniere a ajouter les contraintes eectuant le plus grand elagage
d'abord. Dans clp(FD) la normalisation et le tri sont faits a la compilation (i.e. statiquement) plut^ot qu'a l'execution (i.e. dynamiquement). Ceci dans un evident souci de rapidite.
Nous ne pouvons toutefois pas extraire autant d'information puisque nous n'avons aucune
connaissance des liaisons dynamiques. Sans aller chercher tres loin, une simple analyse de
modes nous permettrait d'emettre du code plus specialise en evitant de considerer comme
une variable DF ce qui se revelera ^etre un simple entier.
A partir d'une forme normale, il existe deux manieres de compiler les contraintes arithmetiques :
compilation en code inline,
compilation en appel de sous-contraintes de librairie.
7.1.2 Compilation en code inline
Dans ce schema de compilation, une contrainte X in r est generee pour chaque variable xi .
Chacune denit donc une variable en fonction de n 1 autres. Par exemple, F + G = H +10
sera traduit comme :
F = H + 10 G F in min(H)+10-max(G)..max(H)+10-min(G) (cF )
G = H + 10 F
G in min(H)+10-max(F)..max(H)+10-min(F)
(cG)
H = F + G 10
H in min(F)+min(G)-10..max(F)+max(G)-10
(cH )
CHAPITRE 7. CONTRAINTES COMPLEXES
151
L'inconvenient majeur de cette methode est que la taille du code produit est quadratique
en fonction de la taille de l'entree [16]. Un autre inconvenient provient du fait que beaucoup
de calculs redondants sont faits par toutes les contraintes. Par exemple, dans A + B + D =
F + G + H + T si D est modie alors F + G + H + T est evalue 2 fois (pour mettre a
jours A et B ) et A + B + D est evalue 4 fois (pour mettre a jour F , G, H et T ). Enn
le dernier inconvenient provient du fait que toute modication d'une variable entra^ne une
reevaluation de toutes les autres variables. Or, bien souvent la modication du domaine
d'une variable n'a aucune repercussion sur les autres variables (du fait de l'incompletude de
arc-consistency). Ne pouvant detecter cela, ce schema de compilation procede alors a n 1
reevaluations inutiles. Considerons par exemple un schema de propagation par lookahead
partiel (ne propageant que les bornes) et la decomposition ci-dessus dans le store :
fF
g
in 0..15, G in 0..15
donnant :
fF
in 0..15, G in 0..15, H in 0..20,
cF , cG , cH g
Supposons maintenant que la contrainte F in 5..15 soit ajoutee au store. cG est alors
reevaluee et fournit 5::30 qui contient deja le domaine courant de G (qui n'est donc pas
reduit). cH est a son tour reevaluee et fournit 10::20 qui contient deja le domaine de H
qui n'est donc pas non plus modie. Et ainsi de suite pour toutes les autres variables.
Tous ces defauts nous ont fait adopter l'approche suivante dans clp(FD).
7.1.3 Compilation en appel de sous-contraintes de librairie
L'idee consiste a decomposer la contrainte lineaire en plusieurs sous-contraintes lineaires en
introduisant des variables intermediaires. Chaque sous-contrainte lineaire donne alors lieu
a un appel specique a une contrainte denie en librairie. Par exemple, F + G = H + 10
peut ^etre traduit en :
F +G=I
'x+y=z'(F,G,I)
I = H + 10
'x=y+c'(I,H,10)
CHAPITRE 7. CONTRAINTES COMPLEXES
152
Le code produit par cette methode est donc tres petit puisqu'il n'est constitue que d'appels
de predicats. Mais le plus grand avantage provient de l'introduction de variables intermediaires qui factorisent des calculs et evitent donc des calculs redondants. De plus, le fait
que toute variable ne depend plus de toutes les autres variables evite egalement beaucoup de reveils inutiles de contraintes. Considerons a nouveau l'exemple precedent et la
decomposition ci-dessus dans le store :
fF
g
in 0..15, G in 0..15
donnant :
fF
in 0..15, G in 0..15, I in 10..30, H in 0..20,
F + G = I , I = H + 10g
Supposons maintenant que la contrainte F in 5..15 soit ajoutee au store. G est alors
reevalue a partir de min(I)-max(F)..max(I)-min(F) = 0::25 qui contient deja le domaine courant de G (qui n'est donc pas reduit). I est a son tour reevalue a partir de
min(F)+min(G)..max(F)+max(G) = 5::30 qui contient d
eja le domaine de I qui n'est donc
pas non plus modie. Le calcul s'arr^ete alors ici et evite de reevaluer inutilement H (et
potentiellement beaucoup d'autres variables).
Ainsi, cette methode pallie tous les desavantages du schema de compilation en code inline.
Il y a evidemment dierentes manieres de decomposer une contrainte arithmetique inuencant de maniere tres signicative sur les performances. Intuitivement un decoupage trop
n engendre un tres grand nombre de variables intermediaires (donc un surco^ut important)
et un decoupage trop large reduit les possibilites d'optimiser les reveils inutiles que nous
venons de montrer (puisqu'a l'extr^eme une decomposition en 1 seule contrainte equivaut a
la compilation en code inline). En outre, moins la decomposition est ne plus la librairie
necessaire est importante (i.e. plus elle contient de sous-contraintes). Les mesures empiriques nous ont montre qu'une bonne strategie consiste en une decomposition par groupes
de 3 variables et ne necessite pas une librairie trop importante.
7.2 Operation Ask
L'operation Ask permet de lier l'execution d'un calcul a la reussite d'une contrainte. Cette
operation a vue le jour dans le cadre des langages de programmation logique concurrents
CHAPITRE 7. CONTRAINTES COMPLEXES
153
avec contraintes (CC) [60, 61] ou elle sert de mecanisme de synchronisation entre agents.
Comme nous l'avons deja dit, la contrainte X in r permet de specier quelle information
doit ^etre propagee. L'adjonction du Ask permet de specier quand l'information doit ^etre
propagee. Le Ask est un outil precieux pour denir des contraintes complexes puisqu'il
permet de sortir du cadre restreint du contr^ole dirige par les programmes pour obtenir
un contr^ole dirige par les donnees. Or ceci est indispensable pour denir des systemes de
contraintes du type de FD ou les donnees ont autant d'importance (cf. propagation). Il est
evident qu'aucun des mecanismes de retardement \ajoutes" a Prolog (ex. freeze, dif)
n'est assez puissant pour capturer la richesse d'un systeme de contraintes et un mecanisme
plus general est necessaire. Ainsi, la denition d'un systeme de contraintes peut ^etre vue
comme une application des CC (la premiere ?).
Denition 7.3 Soit c une contrainte et A un but, l'operation Ask entre c et A (notee c
! A) se comporte comme A dans un store S si S ` c et reussit si S ` :c.
Ainsi, l'operation Ask c ! A doit ^etre lue, operationnellement, comme si c alors A et a le
comportement suivant :
S ` c: A est execute dans S .
S ` :c: le Ask reussit simplement.
S 6` c et S 6` :c: le Ask suspend jusqu'a ce que le store contienne plus d'information
pour decider de la satisfaction ou de la contradiction de c.
Remarques :
cette operation est aussi appelee implication bloquante [69] du fait qu'elle est proche
de l'implication intuitionniste et qu'elle est bloquante tant que le store ne contient
pas assez d'information pour conclure.
il est possible de compiler les Asks tout comme les Tells du fait que les condi-
tions susantes de detection de la satisfaction sont generees de maniere statique (cf.
section 6). De plus, il est possible de specier divers degres de precision pour ces
conditions.
Ask permet a l'utilisateur de specier des schemas de contr^ole diriges par les donnees
donc de contr^oler le processus de resolution de contraintes ce qui permet d'obtenir
CHAPITRE 7. CONTRAINTES COMPLEXES
154
des contraintes plus performantes.
Ask permet de denir de maniere declarative des contraintes \c^ablees" dans les solveurs du type \bo^tes noires".
L'operation Ask n'est pas (encore) implantee dans clp(FD) mais nous montrerons en
section 7.3.2 comment simuler un cas particulier de Ask (c ! A) ou A est lui-m^eme une
contrainte. On appelle ce type de Ask une contrainte conditionnelle [17]. L'implication
logique c1 ) c2 se denit comme c1 ! c2 et :c2 ! :c1 et l'equivalence entre c1 et c2 se
denit de maniere classique comme c1 ) c2 et c2 ) c1 qui se traduit, en n de compte,
par 4 Asks.
Etudions tout de suite des utilisations de contraintes conditionnelles.
7.2.1 Le probleme des series magiques
Le probleme des series magiques [67] consiste a trouver une suite d'entiers fx0 ; : : : ; xn 1g
telle que chaque xi represente le nombre d'occurrences de l'entier i dans la suite. Ainsi,
pour n = 4 la serie f1; 2; 1; 0g est magique. La formulation originale [67] utilisait un freeze
sur chaque Xi pour declencher les ajouts de contraintes. Notre formulation, basee sur celle
de [54], se contentera d'encoder la relation suivante :
xi =
ou (x = y) vaut 1 si x = y et 0 si x 6= y.
nX1
j =0
(xj = i)
Ce qui se fait aisement en denissant une contrainte intermediaire (X = A) , B ou X est
une variable DF, A est un entier et B une variable booleenne (i.e. de domaine initial 0::1)
valant 1 ssi X = A.
Exemple 7.1
'x=a , b'(X,A,B):-
X
X
B
B
=
6
=
=
=
A
A
1
0
!
!
!
!
B
B
X
X
=
=
=
6
=
1,
0,
A,
A.
3
Pour montrer la puissance de cette formulation, comparons-la a celle de CHIP utilisant un
freeze (sur un Sparc 2, 28.5 Mips). clp(FD) commence par ^
etre 4 fois plus rapide que
CHAPITRE 7. CONTRAINTES COMPLEXES
155
CHIP pour n = 10 et nit par ^etre plus de 400 fois plus rapide pour n = 50 (cf. table 35).
La formulation avec freeze ne permet pas un aussi bon elagage de l'espace de recherche
que celle avec Ask.
Programme
magic
magic
magic
magic
magic
10
20
30
40
50
ff
ff
ff
ff
ff
CHIP
3.2
0.180
1.510
11.200
66.750
334.870
clp(FD)
2.21
0.040
0.130
0.270
0.470
0.720
facteur
acceleration
4.50
11.61
41.48
142.02
465.09
Tableau 35 : probleme des series magiques
7.2.2 Contrainte atmost
La contrainte atmost(N,[X1 ,: : : ,Xm ],V) est vraie ssi au plus N variables Xi sont egales
a l'entier V . Cette contrainte peut ^etre denie gr^ace a la relation :
n
X
j =0
(xj = V ) N
ou (x = y) vaut 1 si x = y et 0 si x 6= y. Cette contrainte se denit simplement par le biais
de la contrainte (X = A) , B precedemment etudiee (cf. exemple 7.1).
7.2.3 Contrainte de cardinalite
La contrainte cardinality(L,[C1 ,...,Cm ],U) [68, 69] est vraie ssi parmi les m contraintes Ci il y en a au moins L et au plus U de vraies. Cette contrainte \c^ablee" dans
les solveurs \bo^tes noires" peut ^etre denie en associant une variable booleenne Bi a la
reussite de chaque contrainte Ci et en posant :
U ce qui peut s'encoder par :
Exemple 7.2
m
X
j =0
Bi N
CHAPITRE 7. CONTRAINTES COMPLEXES
cardinality(L,Cs,U):- N in L..U,
card(Cs,N).
card([],0).
card([C|Cs],N):- B in 0..1,
C
B=1,
C
B=0,
B=1
C,
B=0
C,
N = M + B,
card(Cs,M).
156
!
: !
!
!:
3
7.2.4 Contrainte element
La contrainte element(I,[E1 ,: : : ,En ],X) est vraie ssi X = EI ou I et X sont des variables
DF et Ei des entiers.
Ce qui revient a encoder les relations V = e , I in i1 : ::: : ip pour toutes les occurrences
i1 ; :::; ip de la valeur e.
7.2.5 Contraintes arithmetiques non-lineaires
Traditionnellement les contraintes non-lineaires ne sont pas directement supportees par
les resolveurs et sont retardees jusqu'a ce qu'elles deviennent lineaires. Par exemple, la
resolution de X Y = Z n'aura lieu qu'a partir du moment ou X ou Y est clos. Toutefois,
un tel declenchement tardif diminue les possibilites d'elagage. Dans le cas de X Y = Z ,
le probleme provient du fait que X doit ^etre mis a jour a chaque modication de Y ou de
Z par l'evaluation de Z=Y et nous devons donc prevenir le cas Y = 0 (similairement pour
Z=X ). L'on peut alors utiliser un Ask pour denir cette contrainte de maniere declarative
et ecace comme suit :
Exemple 7.3
6
!
!
'xy=z'(X,Y,Z):- Y = 0
X in min(Z)/>max(Y)..max(Z)/<min(Y),
X = 0
Y in min(Z)/>max(X)..max(Z)/<min(X),
Z in min(X)*min(Y)..max(X)*max(Y).
6
3
L'elagage eectue est beaucoup plus important que celui obtenu en retardant l'evaluation
jusqu'a obtention de la linearite du fait que X 6= 0 est une condition d'attente beaucoup
CHAPITRE 7. CONTRAINTES COMPLEXES
157
plus faible que ground(X ). Ainsi, la contrainte 'xy=z'(X,Y,110) dans le store :
fX
g
in 1..40, Y in 6..30
reduira le domaine de X a 5::11 et celui de Y a 10::22. Du fait que la contrainte n'est pas
encore lineaire, la premiere version n'eectuerait aucune reduction et la recherche de toutes
les solutions entra^nerait alors, au moment de l'enumeration, l'essai de 40 valeurs pour X .
En comparaison, la version utilisant le Ask ne necessiterait que l'essai de 7 valeurs.
7.3 Generalisation de la contrainte X
in
r
7.3.1 Contraintes resolues par full lookahead
Gr^ace a la contrainte X in r nous pouvons specier des schemas de propagation du type
full-lookahead entre deux variables et (eventuellement) une constante comme montre en
exemple 2.3
Il n'est toutefois pas possible d'utiliser ce type de propagation pour des contraintes de plus
grande arite. Il est neanmoins possible d'etendre la syntaxe des domaines de X in r pour
prendre en compte les operations arithmetiques assurant une consistance entre domaines.
Denition 7.4 Soient d1 et d2 deux domaines alors
d1 d2 =
[
k2d2
d1 k ( 2 f+; ; ; =; g)
Ainsi, si le domaine de d1 = f2; 5g et d2 = f1; 7; 11g le domaine denote par d1 + d2 =
f3; 6; 9; 12; 13; 16g.
Ces operations nous permettent par exemple de denir la contrainte div(X,Y,Q,R) veriant
X = Q Y + R (ou Q est le quotient de X=Y et R le reste) comme suit :
Exemple 7.4
div(X,Y,Q,R):-Y in 1..infinity,
R #
Y,
X in dom(Y)*dom(Q)+dom(R),
Q = 0
Y in (dom(X)-dom(R))/dom(Q),
6
<
!
CHAPITRE 7. CONTRAINTES COMPLEXES
Q in (dom(X)-dom(R))/dom(Y),
R in dom(X)-dom(Y)*dom(Q).
158
3
Une telle contrainte dans le store :
fX
in 2..10, Y=2, R=1
g
reduira le domaine de X aux valeurs f3; 5; 7; 9g et celui de Q a 1::4 comme desire.
Notons que cette extension s'implante aisement (par extension triviale du jeu d'instructions) et peut ^etre prise en compte par les mecanismes de detection de satisfaction de
contraintes precedemment decrits.
7.3.2 Fonctions utilisateurs
La contrainte X in r nous permet de denir un domaine gr^ace a des fonctions sur les
domaines (ex. intersection, union, etc...) et a des fonctions sur les termes (addition, soustraction, etc...). Notons que la denition de ces fonctions primitives ne repose que sur la
(grande) experience en matiere de domaines nis de P. Van Hentenryck [69]. Il semble toutefois naturel de generaliser la syntaxe de X in r pour permettre a l'utilisateur de denir
ses propres fonctions sur les domaines et sur les termes (cf. table 36). De telles fonctions
sont appelees fonctions utilisateurs. Dans clp(FD) les fonctions utilisateurs sont ecrites
en C pour des raisons d'ecacite et du fait que le moteur Prolog sous-jacent (i.e. wamcc)
supporte deja l'ajout de code C externe.
Simulation du Ask
Les fonctions utilisateurs nous permettent d'encoder les contraintes conditionnelles (i.e.
Ask du type c1 ! c2 ). En eet, supposons que nous decidions d'adopter une approximation de type 2 pour detecter la satisfaction de c1 (cf. section 6). Les conditions E2 (X in r)
etant du type dom(X ) A(r). Il nous sut de denir une seule fonction utilisateur
if incl(r0 ,r1 ,r2 ) qui retourne r2 si r0 r1 et 0::infinity sinon.
Dans ce cas c1 ! c2 (avec c1 X1 in r1 et c2 X2 in r2 ) se denit simplement comme la
contrainte d X2 in if incl(dom(X1 ),A(r1 ),r2 ). Operationnellement chaque fois que
X1 ou r1 est modie la contrainte d est reveillee, le test de satisfaction de c1 est reevalue.
CHAPITRE 7. CONTRAINTES COMPLEXES
c ::= X
in
r
r ::= t1 ..t2
ftg
R
dom(Y )
r1 : r2
r1 & r2
-r
r + ct
r - ct
r * ct
r / ct
fr (a1 ,:::,ak )
(intervalle)
(singleton)
(parametre domaine)
(domaine indexical)
(union)
(intersection)
(complementation)
(addition point a point)
(soustraction point a point)
(multiplication point a point)
(division point a point)
(fonction utilisateur)
a ::= r j t
(argument de fonction)
t ::=
159
Y
(terme indexical min)
Y
(terme indexical max)
ct j t t j t1-t2 j t1 *t2 j t1 /<t2 j t1 />t2
f a ::: ak ) (fonction utilisateur)
min( )
max( )
1+ 2
t( 1, ,
ct ::= C
nj
infinity
(parametre terme)
j ct1 +ct2 j ct1 -ct2 j ct1*ct2 j ct1 /<ct2 j ct1 />ct2
Tableau 36 : syntaxe etendue de la contrainte X
in
r
Tant qu'il n'est pas encore vrai, le domaine de X2 n'est pas modie (car la fonction retourne
0::infinity). Des que ce test est vrai alors X2 est mis a jour par la contrainte c2 (car la
fonction retourne r2).
Notons que cette maniere de faire n'est pas la plus performante puisque :
tant que le test est faux il est inutile d'evaluer r2 (ce qui est fait lors de l'appel de la
fonction if incl).
aussit^ot que le test est vrai il est inutile de continuer a l'evaluer car nous savons qu'il
le sera toujours dans la suite du calcul (cf. section 6).
Malgre cela les resultats obtenus sont tres bons (cf. series magiques en section 7.2.1), ce
qui est de tres bonne augure pour une future implantation de Ask qui evitera ces defauts.
CHAPITRE 7. CONTRAINTES COMPLEXES
160
Nouvelles fonctionnalites
Comme nous l'avons vu precedemment, les fonctions utilisateurs permettent d'encoder les
contraintes conditionnelles. Ainsi, la contrainte 'xy=z'(X,Y,Z) de l'exemple 7.3 peut ^etre
encodee par :
Exemple 7.5
'xy=z'(X,Y,Z):- X in div e(min(Z),max(Y))..div d(max(Z),min(Y)),
Y in div e(min(Z),max(X))..div d(max(Z),min(X)),
Z in min(X)*min(Y)..max(X)*max(Y).
La fonction div e(x,y) (resp.
(resp. infinity) sinon.
3
x y retourne dx=ye (resp. bx=yc) si y 6= 0 et 0
div d( , ))
Considerons maintenant le cas particulier ou X = Y (i.e. X 2 = Z ). L'utilisation de
'xy=z'(X,X,Z) dans le store :
fX
g
in 1..100, Z in 5..24
reduira le domaine de X a 1::24 mais ne modie pas le domaine de Z . Il est toutefois possible
p
d'ameliorer l'etendue de ces reductions du fait que X = Z . Ceci est similaire a ce qui se
passe si la normalisation n'est pas eectuee pour les equations lineaires (cf. section 7.1.1)
et que les diverses occurrences d'une variable sont traitees separement. Denissons alors la
contrainte X 2 = Z comme suit :
Exemple 7.6
'xx=z'(X,Z):- X in sqrt e(min(Z))..sqrt d(max(Z)),
Z in min(X)*min(X)..max(X)*max(X).
3
La fonction sqrt e(x) (resp. sqrt d(x)) retourne la racine carree de x arrondie a l'entier
superieur (resp. inferieur). Cette contrainte dans le store :
fX
g
in 1..100, Z in 5..24
reduira le domaine de X a 3::4 et celui de Z a 9::16.
Notons, pour nir qu'il est evidemment possible d'utiliser un schema de propagation par
full-lookahead comme indique precedemment. En eet, dans le cas de termes non-lineaires,
l'approximation par les intervalles peut ^etre trop grossiere. Pour revenir sur notre exemple
CHAPITRE 7. CONTRAINTES COMPLEXES
161
X 2 = Y , avec un store initial :
fX
g
in 1..100, Z in 5..24
on obtiendrait une reduction de X a 3::4 (inchange) et de Z a f9; 16g qui est beaucoup
plus precise que 9::16.
Optimisations
Le fait de pouvoir denir des fonctions pour le calcul de contraintes nous permet d'optimiser
l'evaluation de certaines contraintes. Considerons la contrainte diff(X,Y,I) utilisee dans
queens pour sp
ecier que X 6= Y , X 6= Y + I , X 6= Y I denie comme suit :
Exemple 7.7
f
f
g
g
diff(X,Y,I):- X in - val(Y)
Y in - val(X)
f
f
g
g
& - val(Y)-I
& - val(X)-I
f
f
g
g
(cX )
(cY )
& - val(Y)+I ,
& - val(X)+I .
3
La table 37 montre le code produit par la compilation de la contrainte cX (celui de la
contrainte cY etant similaire).
cstr 1:
end:
fd
fd
fd
fd
fd
fd
fd
fd
fd
fd
fd
fd
dly val(1,1,end)
compl of singleton(0,1)
term copy(3,1)
term parameter(2,2)
term sub term(3,2)
compl of singleton(3,3)
inter(0,3)
term add term(1,2)
compl of singleton(1,1)
inter(0,1)
tell range(0)
proceed
Tableau 37 : code de X
f
g
in - val(Y)
T(1)=Y (si Y est clos)
R(0)=- Y
T(3)=Y
T(2)=I
T(3)=Y-I
R(3)=- Y-I
R(0)=- Y & - Y-I
T(1)=Y+I
R(1)=- Y+I
R(0)=- Y & - Y-I & - Y+I
X in - Y & - Y-I & - Y+I
retour d'ex
ecution
fg
f g
fg f g
f g
fg f g
fg f g
f
& - val(Y)-I
g
f
f g
f g
& - val(Y)+I
g
Ce code eectue 3 complementations et 2 intersections. Or le domaine que nous voulons
aecter a X n'est rien d'autre que 0::infinity n fY; Y I; Y + I g. Il est alors possible de
redenir la contrainte diff(X,Y,I) comme :
Exemple 7.8
CHAPITRE 7. CONTRAINTES COMPLEXES
diff(X,Y,I):- X in f diff(val(Y),I),
Y in f diff(val(X),I).
162
(cX )
(cY )
3
La fonction C f diff(y,i) rend le domaine 0::infinity duquel elle a retire successivement
les valeurs y, y i, y + i. Les 2 intersections sont donc evitees. A titre de comparaison, la
table 38 presente les temps obtenus avec cette denition optimisee. Celle-ci est environ 1:5
fois plus rapide que celle non optimisee et 7 fois plus rapide que CHIP 3.2.
Programme
queens
queens
queens
queens
16
64 ff
70 ff
81 ff
CHIP
3.2
2.830
0.990
42.150
1.620
clp(FD)
clp(FD)
2.21 2.21+fct
0.890
0.570
0.130
0.100
11.070
7.830
0.210
0.170
Tableau 38 : queens optimise avec fonctions utilisateurs
7.4 Disjonction constructive
La prise en compte de disjonctions de contraintes est un des point cles de la PLC ou des
CSP du fait que les contraintes disjonctives apparaissent dans beaucoup de problemes reels
tels qu'ordonnancement disjonctif, job-shop, problemes de \sac a dos" ou placements d'objets dans un plan. La maniere la plus simple (et traditionnelle) pour gerer une disjonction
de contraintes en PLC consiste a utiliser le non-determinisme supporte par le moteur logique (i.e. Prolog) sous-jacent [67]. Malheureusement, le fait de traduire une disjonction de
contraintes par un point de choix conduit vite a de pietres performances du fait du schema
naf de backtracking utilise par Prolog. Le backtracking intelligent peut resoudre quelques
cas d'inecacite [20] mais devient inadapte si le reseau de contraintes est fortement connecte du fait que tout point de choix est alors considere comme pertinent (ce qui nous
ramene au schema naf).
L'approche la plus prometteuse consiste a eviter la creation de points de choix et, lorsque
necessaire, de les creer de maniere dynamique plut^ot que statique. Ainsi, pour les disjonctions aussi, l'approche \dirige par les donnees" est preferable a l'approche \dirige par les
programmes". Une telle approche est parfaitement illustree dans le principe d'Andorra [76]
CHAPITRE 7. CONTRAINTES COMPLEXES
163
qui se situe au coeur de langages tels que Andorra-I [32] ou AKL [41] et favorise les calculs
deterministes et retardant les buts non-deterministes aussi longtemps que possible (i.e. tant
qu'un calcul deterministe peut ^etre eectue). Ce concept trouve ses racines dans les tout
premiers developpements de Prolog comme par exemple dans les procedures de recherche
du type sidetracking [55] favorisant l'exploration des buts possedant le moins d'alternatives.
Remarquons qu'il ne s'agit la que d'une variante du celebre principe rst-fail.
Ces idees ont ete approfondies plus encore dans le cadre PLC ou, en plus de vouloir eviter
de faire des choix trop t^ot (donc potentiellement errones), l'on a cherche a obtenir un
comportement actif des contraintes disjonctives. C'est ainsi qu'a vu le jour l'operateur de
disjonction constructive du langage cc(FD) [69]. Le concept de base de cette notion etant de
factoriser les contraintes satisfaites par toutes les branches alternatives et de les ajouter au
store aussit^ot que possible sans creer de point de choix. Ceci peut ^etre formalise simplement,
pour des systemes de contraintes denis par des treillis [63], en considerant un operateur glb
(greatest lower bound) entre contraintes (en plus du classique lub associe a la conjonction)
deni comme : glb(c1; c2) = fc = c1 ` c ^ c2 ` cg. Ainsi, une contrainte disjonctive est
utilisee de maniere active pour elaguer l'arbre de recherche et sans creer de points de
choix. La puissance d'une telle approche dans des applications reelles a ete demontree
dans [48]. Toutefois, ce mecanisme peut ^etre assez co^uteux dans le cas des DF du fait que
les contraintes disjonctives doivent ^etre reconsiderees a chaque etape de propagation pour
reevaluer l'information commune issue des disjonctions (i.e. contraintes satisfaites a ajouter
au store). La solution consiste ici aussi a n'utiliser qu'une approximation et a ne detecter
qu'un sous-ensemble de l'information commune.
Dans cette section, nous montrons que notre systeme de contraintes permet d'encoder un
cas particulier de disjonction constructive pour lequel le m^eme elagage est eectue mais
de maniere plus simple et plus ecace. Nous montrerons egalement que la plupart des
utilisations de la disjonction constructive font partie de ce cas particulier.
7.4.1 Un exemple simple
Nous allons considerer le fameux puzzle des cinq maisons de Lewis Carroll longtemps
utilise comme benchmark dans les communautes Prolog et PLC. L'enonce du probleme
CHAPITRE 7. CONTRAINTES COMPLEXES
164
met en jeu cinq personnes vivant dans cinq maisons avec dierentes professions, nationalites, animaux favoris et boissons favorites. Le probleme consiste a trouver les aectations
personne-maison-profession-nationalite-animal-boisson veriant les quatorze faits qui decrivent le probleme.
La formulation de ce probleme en PLC (cf. five [67]) utilise cinq variables pour chaque
personne pour encoder sa maison, sa profession, sa nationalite, son animal et sa boisson
favoris. Les faits donnent lieu a des contraintes d'egalite ou d'inegalite sur ces variables.
Trois de ces faits expriment une disjonction entre contraintes. Par exemple le fait \la maison
du norvegien est a c^ote de la maison bleue" signie que la maison du norvegien peut ^etre
a gauche ou a droite de la bleue. Cela mene a une contrainte de la forme :
N5 = C4 + 1
_ N5
= C4 - 1
Ce qui conduit a la denition du predicat plus or minus :
Exemple 7.9
plus or minus(X,Y,C):- X = Y-C.
plus or minus(X,Y,C):- X = Y+C.
3
Un tel predicat creera un point de choix pour chaque invocation. Toutefois, nous pouvons
denir un predicat ayant la m^eme semantique declarative mais deterministe et plus ecace
gr^ace a l'operation d'union entre domaines fournie par le systeme de contraintes :
Exemple 7.10
plus or minus(X,Y,C):- X in dom(Y)-C : dom(Y)+C,
Y in dom(X)+C : dom(X)-C.
3
Pour verier le comportement (actif) de cette denition supposons l'ajout de la contrainte
plus or minus(X,Y,1) dans le store :
fX
in 1..3, Y in 1..5
g
Le predicat deni en clp(FD) supprimera la valeur impossible 5 du domaine de Y (et ne
creera jamais de point de choix) alors que la premiere denition ne peut le faire. Gr^ace
a cette denition, five est deux fois plus rapide que la version de base (utilisee dans la
comparaison avec CHIP).
CHAPITRE 7. CONTRAINTES COMPLEXES
165
7.4.2 \L'union fait la force"
L'idee consiste ici a denir une formule F a partir de E = c1 _ c2 _ ::: _ cn telle qu'elle ne
contienne plus de disjonction. Deux cas sont alors interessants :
(a) E , F : il sut d'ajouter F au store et aucun point de choix n'est necessaire.
(b) E ) F : l'ajout de F au store ne sut pas a assurer la correction qui sera alors
garantie par un point de choix.
Etudions un cas concret de type (a) que l'on rencontre souvent. Considerons la disjonction
E = c1 _ c2 _ ::: _ cn, ou les contraintes ci sont de la forme X1 in r1i ^ : : : ^ Xk in rki
telles que toutes les contraintes Xj in rji , pour un i donne, soient equivalentes et que toutes
les contraintes ci portent sur le m^eme ensemble de variables fX1; :::; Xk g. Intuitivement,
cela correspond a une disjonction de contraintes utilisateurs ayant toutes les variables en
commun et ou chaque contrainte utilisateur s'exprime sous forme d'une conjonction de
contraintes X in r toutes equivalentes (ex. dans le cas precedent pour plus or minus).
Denissons alors F par rapport a E comme suit :
E
c1 _ : : : _ cn
X1 in r11 ^ : : : ^ Xk in rk1
W
:::
X1 in r1n ^ : : : ^ Xk in rkn
X1 in r11 _ : : : _ X1 in r1n
X1 in r11 : : : : : r1n
F V
:::
W
:::
Xk in rk1 _ : : : _ Xk in rkn
Xk in rk1 : : : : : rkn
E et F sont deux formulations equivalentes du fait que dans E toutes les contraintes
d'une m^eme conjonction sont equivalentes. Nous obtenons une formulation deterministe
puisque l'apect disjonctif est ramene au niveau du systeme de contraintes gr^ace a l'operation
d'union. Ainsi, pour une variable X , l'on calcule le domaine associe a chaque branche de
la disjonction et c'est l'union de ces domaines auquel X est contraint. Ceci a donc pour
eet de retirer de X les valeurs incompatibles quelle que soit l'alternative. Remarquons
que le mecanisme de propagation assure qu'une telle union est reevaluee aussit^ot qu'un des
composants est modie procurant ainsi un comportement identique a celui de la disjonction
constructive. Toutefois, ce traitement est beaucoup plus simple donc plus ecace puisqu'il
CHAPITRE 7. CONTRAINTES COMPLEXES
166
ne necessite pas de faire le Tell de toutes les alternatives independamment pour ensuite
en extraire l'information commune.
Bien que la plupart des utilisations courantes de la disjonction constructive fassent partie
de ce cas, il est interessant d'etudier ce qu'il est possible de faire si nous ne pouvons
extraire qu'une approximation, i.e. une formule F telle que E ) F . Dans ce cas, le seul
ajout de F au store ne sut pas a assurer la correction et le recours aux points de choix
est indispensable. Toutefois, la contrainte F permet deja un certain elagage et la creation
des points de choix peut ^etre retardee (par exemple jusqu'au moment de l'enumeration).
Considerons par exemple la disjonction E = (X=4 ^ Y=3) _ (X=8 ^ Y=6) nous pouvons
en deduire F = (X=4 _ X=8) ^ (Y=3 _ Y=6) tel que E ) F . L'ajout de F au store
reduira le domaine de X a f4; 8g et celui de Y a f3; 6g. L'elagage ainsi obtenu est tout
de m^eme important et permet de retarder la creation d'un point du choix assurant la
correction.
7.4.3 Autres exemples
Etudions a present quelques contraintes classiques pour lesquelles la disjonction constructive a deja ete proposee et montrons qu'elles peuvent toutes benecier de la transformation
equivalente deterministe precedement vue.
Maximum de deux valeurs
Dans [69] nous trouvons la denition de la contrainte max(X,Y,Z) assurant que Z est la
valeur maximum de X et Z . Cette contrainte peut ^etre exprimee comme :
Exemple 7.11
'max(x,y)=z'(X,Y,Z):- Z in min(X)..infinity,
Z in min(Y)..infinity,
Z in dom(X) : dom(Y).
3
Les deux premieres contraintes assurent que Z n'est jamais plus petit que X ou que Y et
la derniere contrainte assure que Z vaut l'une ou l'autre de ces valeur. Une telle contrainte
CHAPITRE 7. CONTRAINTES COMPLEXES
167
dans le store
fX
g
in 5..10, Y in 7..11, Z in 1..12
reduira le domaine de Z a 7::11.
Ordonnancement disjonctif
Dans les problemes d'ordonnancement avec ressources partagees, il est habituel d'imposer
que deux t^aches utilisant une m^eme ressource ne puissent pas se derouler ensemble, i.e.
l'une doit s'executer strictement avant l'autre. Soit une t^ache 1 dont la date de debut
est T 1 et de duree D1 et une t^ache 2 de date T 2 et de duree D2. La contrainte de non
chevauchement se traduira par :
T 1 + D1 T 2 _ T 2 + D2 T 1.
Ce qui se traduit dans le systeme de contraintes FD par :
T1 in 0..max(T2)-D1
T2 in 0..max(T1)-D2
^
^
T2 in min(T1)+D1..infinity
T1 in min(T2)+D2..infinity.
_
Ceci peut alors ^etre deni en clp(FD) comme :
Exemple 7.12
no overlap(T1,D1,T2,D2):T1 in 0..max(T2)-D1 : min(T2)+D2..infinity,
T2 in 0..max(T1)-D2 : min(T1)+D1..infinity.
3
Considerons l'ajout de la contrainte no overlap(T1,4,T2,8) dans le store :
fT1
g
in 1..10, T2 in 1..10
entra^nant alors la reduction du domaine de T 1 a 1::6 [ 9::10 et de celui de T 2 a 1::2 [ 5::10.
Valeur absolue
Dans beaucoup de problemes il est necessaire de pouvoir raisonner sur des distances donc
en termes de valeur absolue (ex. placements, allocation de frequences,...). A cet eet, CHIP
CHAPITRE 7. CONTRAINTES COMPLEXES
168
propose une contrainte \cablee" distance et [70] denit une contrainte jX Y j C . Celleci peut ^etre denie en clp(FD) a partir de la denition de X Y (cf. exemple 2.4) comme
suit :
Exemple 7.13
'|x-y|>=c'(X,Y,C):- X in min(Y)+C..infinity : 0..max(Y)-C,
Y in min(X)+C..infinity : 0..max(X)-C.
3
Considerons le store :
fX
g
in 1..10, Y in 1..10
l'ajout de la contrainte '|x-y|>=c'(X,Y,8) reduit le domaine de X et de Y a f1; 2; 9; 10g
similairement a ce qui est presente dans [70].
7.5 Contraintes denies par des relations
Nous allons nous interesser ici a la denition de contraintes veriant des relations denies
en extensions par un ensemble de tuples. Considerons par exemple la relation denissant
la multiplication qualitative entre x et y notee x y. L'on ne s'interesse qu'au signe de x
et de y qui peut ^etre positif (+), negatif (-) ou indeni (?). Choisissons de coder + par 0,
- par 1 et ? par 2. La table de multiplication qualitative se presente donc comme suit :
y x
y
x y x
y
+ +
0 0 0
0 1 1
?
?
0 2 2
+ 1 0 1
- +
1 1 0
?
?
1 2 2
+ ?
2 0 2
?
2 1 2
?
?
2 2 2
table A
table B
Denissons alors la contrainte mul qualit(X,Y,Z) telle que X Y = Z . C'est a dire que
< X; Y; Z > doit verier un des tuples de la table B. Pour cela, introduisons une nouvelle
variable T indiquant le numero du tuple solution. Au depart T a donc pour domaine 1::9.
x
+
+
+
?
?
?
CHAPITRE 7. CONTRAINTES COMPLEXES
169
Des lors il nous sut de relier toute colonne i de la table B a T par une contrainte du type
element(T,i,Vi ) o
u Vi est la variable associee a la colonne i (i.e. X , Y ou Z ). Ceci nous
conduit a la denition suivante :
Exemple 7.14
mul qualit(X,Y,Z):- element(T,[0,0,0,1,1,1,2,2,2],X),
element(T,[0,1,2,0,1,2,0,1,2],Y),
element(T,[0,1,2,1,0,2,2,2,2],Z).
3
Considerons le store :
fX
in 0..2, Y in 0..2, Z in 0..1
g
l'ajout de la contrainte mul qualit(X,Y,Z) reduira le domaine de X et de Y a 0::1 car si
le signe de Z est deni, ceux de X et Y le sont aussi.
Il serait evidemment possible d'ecrire de maniere plus optimisee cette contrainte (en tenant compte des proprietes de la multiplication qualitative) notamment gr^ace a des Asks.
Toutefois, cette maniere de proceder permet d'encoder declarativement n'importe quelle
relation (quelque soit son arite) sans se soucier de ses proprietes. Dans clp(FD), une contrainte predenie relation(Tuples,Vars) est fournie pour permettre a l'utilisateur de
contraindre un tuples de variables (V ars) a prendre comme solution un des tuples fournie
sous forme de liste dans Tuples.
Chapitre 8
Regulation du trac aerien avec
clp(FD)
Nous presentons ici les premiers resultats des travaux menes en collaboration avec le Centre
d'Etudes de la Navigation Aerienne (CENA) situe a Orly. Ce centre a la charge de reguler le trac aerien traversant tout le territoire francais. Les resultats preliminaires nous
ont encourage a ecrire un article [18]. Nous integrons celui-ci tel quel (en anglais) car il
correspond a un travail principalement mene par les personnels du CENA. Notre r^ole a
consite a aider ces personnes dans la formalisation du probleme et a denir les contraintes
speciques necessaires a l'application.
le contenu de ce chapitre a ete publiee dans [18].
170
CHAPITRE 8. REGULATION DU TRAFIC AERIEN AVEC CLP(FD)
171
Using clp(FD) to Support Air Trac Flow
Management
Denise Chemla1;3 , Daniel Diaz2 , Philippe Kerlirzin1 , Serge Manchon1
1
CENA, Orly Sud 205, 94542 Orly Aerogare Cedex, France
2 INRIA, Domaine de Voluceau, 78153 Le Chesnay, France
3 SYSECA, 315, bureaux de la Colline, 92213 Saint-Cloud, France
Abstract. In this paper, a Constraint Logic Programming (CLP) approach is used to solve
an Air Trac Flow Management (ATFM) problem, the aircraft departure slot allocation.
Moreover, our purpose is to show that CLP, combining the declarativity of logic programming with the eciency of constraint solving, is well suited to model many combinatorial
optimization problems involved in the ATFM domain. clp(FD), a Constraint Logic Programming language with Finite Domain constraints has been chosen to implement our
practical application.
8.1 Introduction
The density of trac over Europe has been steadily increasing for several years. This
growth is dicult to manage and causes delays for passengers and work overloads for
controllers. ATFM aims at adapting a variable demand (the airplanes which want to y)
to the variable available capacity of the system of control so as to use this capacity at best.
It has signicant safety and economic consequences as well.
Our research is pursued in the French Air Navigation Research Center (CENA), that is
involved in the development of the future Air Trac Control system. This work will be
integrated into the SPORT decision support system for trac ow management. This
system helps ow managers in analyzing trac data and in preparing ow management
measures. It is operational in the six French Air Control Centers and at the Eurocontrol
Central Flow Management Unit located in Brussels. Figure 20 is a view of the SPORT
system showing the French sectors and the most congested routes.
CHAPITRE 8. REGULATION DU TRAFIC AERIEN AVEC CLP(FD)
172
Figure 20 : Display of SPORT system
In this paper, a CLP approach is used to solve the ATFM problem of departure slot
allocation. clp(FD), a CLP language with Finite Domain constraints has been chosen to
implement this practical application. The departure slot allocation is done manually until
now, so we couldn't compare our approach with linear methods that could have been yet
used. Such a comparison (linear versus CLP methods to solve ATFM problems will be
done in our next research).
The structure of this paper is as follows: Sect. 2 gives a brief description of ATFM; the third
one presents the clp(FD) language features and a new constraint developed for our needs;
Sect. 4 shows how clp(FD) can be used to solve the departure slot allocation problem
under capacity and/or ow rate constraints.
CHAPITRE 8. REGULATION DU TRAFIC AERIEN AVEC CLP(FD)
173
8.2 Problem Context
8.2.1 Air Trac Flow Management Overview
ATFM aims at adapting a variable demand to the variable capacity of the system of control.
Its rst objective is to assure, by smoothing the ow of aircraft, that unacceptable levels of
trac congestion do not develop. Its second goal is to perform this task without imposing
unnecessary ow restrictions.
France is overown by all European air-carriers and even more. Its airspace is a patchwork
of about 90 sectors. Each of them is under the responsibility of a pair of controllers. A
ight crosses several sectors along its route. The radar controller works on a radar position
and gives instructions to pilots via a radio link. He (she) maintains separation between
planes and keep them away from specic dangers such as military areas, storms. The
planning controller takes it on to nd convenient entry and exit ight levels and the right
coordination with neighbouring sectors. When trac allows it, sectors can be grouped
(there are about 120 possible groups of sectors).
The European ATFM activity is structured in three levels:
1. strategic level: at this level, long term measures are dened such as the trac
orientation scheme that dictates the routes operators have to use to go from specic
departure areas to specic arrival areas. National measures are also dened at this
level: modulation of controllers working hours, agreements between military and civil
air trac services, or use of main platforms scheduling;
2. pre-tactical level: an important feature of the sector is its capacity, i.e. the maximum number of ights that can enter the sector per hour. This capacity is variable
along the day and along the year. Generally, it is greater than the demand when one
team of controllers manages one sector. However, some sectors are regularly overloaded due to a limited number of controllers, to structural reasons, or to peak trac: in
that case, the demand can be greater than the capacity during certain periods of the
day. The pre-tactical ATFM consists in preparing, two days before the tactical day,
CHAPITRE 8. REGULATION DU TRAFIC AERIEN AVEC CLP(FD)
174
a regulation plan which is a set of ow rate restrictions intended to avoid overloads
within critical sectors.
3. tactical level: is sub-divided into two processes:
slot allocation: airline operators aected by the regulation plan have to ask for
departure slots two hours before scheduled take-o, so that each aircraft enters
critical sectors at the right time. In the French ow management unit, slots are
allocated according to a rst-demander-rst-served principle.
real time supervision: during the pre-tactical phase, relying on trac periodicity, ow managers forecast the trac to come using recorded data. Because
of last time changes (weather conditions, technical failures, ...), it is necessary
to monitor the eects of the regulation plan and to adapt some restrictions in
real time to cope with excess demand and under-used capacities.
8.2.2 The Slot Allocation Problem
First of all, we will focus on solving the slot allocation problem under capacity constraints;
a small example is presented in Sect. 4. We will then extend the model in order to integrate
another type of constraints, called \ow rate constraints", to organize the delays undergone
by the ights in the rst application.
Capacity Constraint Denition.
A capacity constraint is a relation between an airspace volume A (a sector or a group of
sectors), a temporal period T and an hourly rate N=t (N is the maximum number of
aircraft that can enter the sector each t minutes). The constraint is satised if during T ,
at most N ights per contiguous slices of t minutes width enter A1. N is called capacity
of A. The problem consists in avoiding overloads all along the tactical day by delaying
certain ights. In our model, we have made the choice that capacity constraints aect all
ights without any discrimination: no ight is privileged with regard to CLP slot allocation.
We have developed a new constraint, the atmost_interval constraint that enables the implementation
of a certain number of aircraft per contiguous slices of t-minute width; the cumulative constraint (of CHIP)
allows reasoning on sliding windows of t-minute width and is so too stringent for our needs.
1
CHAPITRE 8. REGULATION DU TRAFIC AERIEN AVEC CLP(FD)
175
Description Of The Slot Allocation Problem Model.
The slot allocation problem under capacity constraint can be dened by its input and
output data. The input data are:
the demand: constituted of a set of lled ight plans:
fFi : (Oi; Di; SRi : (Si;1; EETi;1; : : : ; Si;n; EETi;n))g;
where Fi is a ight identier, Oi and Di are its origin and destination, Si;1; : : : ; Si;n
are the sectors crossed by the ight, EETi;1; : : : ; EETi;n are the expected (by the
ight carrier) entry times in those sectors (EETi;1 is the expected departure time of
the ight). There are 6000 ight plans a day on average.
the resources: dened by a set of airspace volume capacity constraints:
fCCj : (fSj;1; : : : ; Sj;mg; Capaj ; H 1j ; H 2j )g
where CCj is a constraint identier, Sj;1; : : : ; Sj;m are the constrained airspace volumes by the capacity constraint, Capaj is the capacity (half-hourly maximum number of ights entering in the constrained airspace volume), H 1j and H 2j are the
bounds of the application period of the constraint. An example of such a capacity
constraint is
CC1 : (0UT 0;0 TU 0 ; 26; 600; 660)
that expresses that at most 26 aircraft can enter the group of sectors f0UT 0 ;0 TU 0g
from 10am to 11am (in minutes from 0am).
The output data is a set of satisfactory departure times fSETk;1g of the ights Fk such
that all capacity constraints are satised and the average delay undergone by a ight is
minimized.
8.3
clp(FD)
in a Nutshell
As introduced in Logic Programming by the CHIP language, clp(FD) [24] is a constraint
logic language based on nite domains, where constraint solving is done by propagation
and consistency techniques originating from Constraint Satisfaction Problems [49, 53, 71].
CHAPITRE 8. REGULATION DU TRAFIC AERIEN AVEC CLP(FD)
c ::=
r ::=
X in r
(constraint)
ftg
t..t
(interval range)
(singleton range)
C
n
min(X)
max(X)
val(X)
t + t
t - t
t * t
(parameter)
(integer)
(indexical min)
(indexical max)
(delayed value)
(addition)
(subtraction)
(multiplication)
:::
t ::=
:::
176
Tableau 39 : fragment of the constraint system syntax
The novelty of clp(FD) is the use of a unique primitive constraint which allows users to
dene their own high-level constraints. The black-box approach gives way to glass-box
approach.
8.3.1 The Constraint
X
in
r
The main idea is to use a single primitive constraint X in r, where X is a nite domain
(FD) variable and r denotes a range, which can be not only a constant range, e.g. 1::10
but also an indexical range using:
min(Y ) which represents the minimal value of Y (in the current store),
max(Y ) which represents the maximal value of Y ,
val(Y ) which represents the value of Y as soon as Y is ground.
A fragment of the syntax of this (simple) constraint system is given in table 39.
The intuitive meaning of such a constraint is: \X must belong to r in any store".
CHAPITRE 8. REGULATION DU TRAFIC AERIEN AVEC CLP(FD)
177
The initial domain of an FD variable is 0..1 and is gradually reduced by X in r constraints which replace the current domain of X (DX ) by DX0 = DX \ r at each modication
of r. An inconsistency is detected when DX0 is empty. Obviously, such a detection is correct
if the range denoted by r can only decrease. So, there are some monotone restrictions about
the constraints [69]. To deal with the special case of anti-monotone constraints we use the
general forward checking propagation mechanism [40] which consists in awaking a constraint only when its arguments are ground (i.e. with singleton domains). In clp(FD) this
is achieved using a new indexical term val(X ) which delays the activation of a constraint
in which it occurs until X is ground.
As shown in the previous table, it is possible to dene a constraint w.r.t. the min or
the max of some other variables, i.e. reasoning about the bounds of the intervals (partial
lookahead [67]). clp(FD) also allows operations about the whole domain in order to also
propagate the \holes" (full lookahead [67]). Obviously, these possibilities are useless when
we deal with boolean variables since the domains are restricted to 0::1.
8.3.2 High-Level Constraints and Propagation Mechanism
From X in r constraints, it is possible to dene high-level constraints (called user constraints) as Prolog predicates. Each constraint species how the constrained variable must
be updated when the domains of other variables change. In the following examples X , Y
are FD variables and C is a parameter (runtime constant value).
'x+y=c'(X,Y,C):-
X in C-max(Y)..C-min(Y),
Y in C-max(X)..C-min(X).
'x-y=c'(X,Y,C):-
X in min(Y)+C..max(Y)+C,
Y in min(X)-C..max(X)-C.
(C1 )
(C2 )
(C3 )
(C4 )
The constraint x+y=c is a classical FD constraint reasoning about intervals. The domain
of X is dened w.r.t. the bounds of the domain of Y .
In order to show how the propagation mechanism works, let us trace the resolution of the
system fX + Y = 4; X Y = 2g (translated via 'x+y=c'(X,Y,4) and 'x-y=c'(X,Y,2)):
CHAPITRE 8. REGULATION DU TRAFIC AERIEN AVEC CLP(FD)
178
after executing 'x+y=c'(X,Y,4), the domain of X and Y are reduced to 0::4 (C1 is in the
current store: X in 1::4, C2 : Y in 1::4). And, after executing 'x-y=c'(X,Y,2),
the domain of X is reduced to 2::4 (C3 : X in 2::6), which then reduces the domain of Y
to 0::2 (C4 : Y in 0::2).
Note that the unique solution fX = 3; Y = 1g has not yet been found. So, in order to
eciently achieve consistency, the traditional method (arc-consistency) only checks that,
for any constraint C involving X and Y , for each value in the domain of X there exists
a value in the domain of Y satisfying C and vice-versa. So, once arc-consistency has been
achieved and the domains have been reduced, an enumeration (called labeling) has to be
done on the domains of the variables to yield the exact solutions. Namely, X is assigned
to one value in DX , its consequences are propagated to other variables, and so on. If an
inconsistency arises, other values for X are tried by backtracking. Note that the order
used to enumerate the variables and to generate the values for a variable can improve the
eciency in a very signicant manner (see heuristics in [67]).
In our example, when the value 2 is tried for X , C2 and C4 are woken (because they depend
on X ). C2 sets Y to 2 and C4 detects the inconsistency when it tries to set Y to 0. The
backtracking reconsiders X and tries value 3 and, as previously, C2 and C4 are reexecuted
to set (and check) Y to 1. The solution fX = 3; Y = 1g is then obtained.
8.3.3 Optimizations
The uniform treatment of a single primitive for all complex user constraints leads to a
better understanding of the overall constraint solving process and allows for (a few) global
optimizations, as opposed to the many local and particular optimizations hidden inside
the black-box. When a constraint X in r has been reexecuted, if DX0 = DX it was useless
to reexecute it (i.e. it has neither failed nor reduced the domain of X ). Hence, we have
designed three simple but powerful optimizations for the X in r constraint [24, 25] which
encompass many previous particular optimizations for FD constraints:
some constraints are equivalent so only the execution of one of them is needed. In
the previous example, when C2 is called in the store fX in 0::4; Y in 0::1g Y is set
to 0::4. Since the domain of Y has been updated, all constraints depending on Y are
CHAPITRE 8. REGULATION DU TRAFIC AERIEN AVEC CLP(FD)
179
reexecuted and C1 (X in 0::4) is woken unnecessarily (C1 and C2 are equivalent).
it is useless to reexecute a constraint as soon as it is entailed. In clp(FD), only one
approximation is used to detect the entailment of a constraint X in r which is \X is
ground ". So, it is useless to reexecute a constraint X in r as soon as X is ground.
when a constraint is woken more than once from several distinct variables, only one
reexecution is necessary. This optimization is obvious since the order of constraints,
during the execution, is irrelevant for correctness.
These optimizations make it possible to avoid on average 50% of the total number of
constraint executions on a traditional set of FD benchmarks (see [24, 25] for full details)
and up to 57% on the set of boolean benchmarks presented below.
8.3.4 Performances
Full implementation results about the performances of clp(FD) can be found in [24, 25],
and show that this \glass-box" approach is sound and can be competitive in terms of
eciency with the more traditional \black-box" approach of languages such as CHIP. On
a traditional set of benchmark programs, mostly taken from [67], the clp(FD) engine is on
average about four times faster than the CHIP system, with peak speedup reaching eight.
8.3.5
atmos interval
Constraint
To model capacity constraints, we needed to dene a new constraint, the atmost_interval
constraint.
The symbolic constraint atmost_interval(N; [X1 ; :::; Xm]; L; U ) is a user-dened constraint that holds if and only if at most N variables Xi are included within the interval
[L; U ]. This constraint can be dened via the relation:
CardinalfXi =L Xi U g N
A boolean Bi is associated with each variable Xi and set to 1 if L Xi U and to 0
otherwise. The sum of all Bi must be less than or equal to N . It is worth noticing that
CHAPITRE 8. REGULATION DU TRAFIC AERIEN AVEC CLP(FD)
V’11V’12
V1
S1 S2
V’21
V2
S3
S1
S4
V’32
V3
V4
180
V’41
S1
2
S2
S5
V’42
3
4
S2
5
6
S6
7
8
S7
10
t
[2s1]
[ 3s2 ]
Figure 21 : Graphical representation of a small problem
such a constraint should be \wired" in CHIP by the designers of the system whereas it is
dened in clp(FD) as a user constraint.
8.4 Slot Allocation Satisfying Capacity Constraints
8.4.1 A Small Example
In the graphical representation (Fig. 21), 4 ights are represented as connected segments.
Each segment corresponds to the crossing of a sector by a ight and is characterized by
its length proportional to the crossing duration. The capacity constraints are represented
on time axis: only 2 aircraft are allowed to enter S1 between times 2 and 3, and only 3
aircraft are allowed to enter S2 between times 3 and 5. Variables Vi represent the expected
departure times of ights; variables Vj0 are S1 and S2 the expected entry times (S1 and S2
are the only constrained sectors so only those variables are necessary).
8.4.2
clp(FD)
Model
The slot allocation problem under capacity constraints can be modelled using 3 types of
constraints:
1. Domain constraints on departure time variables: we saw that a CLP variable corresponding to the departure time is associated with each ight; in order to satisfy
CHAPITRE 8. REGULATION DU TRAFIC AERIEN AVEC CLP(FD)
181
capacity constraints, the departure of a ight can be delayed, up to 3 hours (= 180
min, during our experiments).
Each departure time variable will have to satisfy the following constraint:
Vi in EETi;1 ::EETi;1 + max delay
where Vi is the departure time variable of ight Fi and EETi;1 is the constant corresponding to the requested time of the ight (see 2.2 and 4.2).
2. relations between sector entry time variables and departure time variables: for each
capacity constraint, a variable is created for a ight if the entering time in the rst
sector Si of its route SRj that belongs to A (where A is the constraint group of
sectors - possibly a singleton) is within T (the constraint period) - see 4.1 and 4.2.
Therefore, we set a new constraint on each of these variables V 0, as follows:
V 0# = V + where V is the departure time and is the time the ight needs to reach the sector
Si (translation constant).
3.
constraints: nally, each capacity constraint is modelled using an
atmost_interval constraint, dened in 3.5. Its arguments are the capacity, the list
of the variables identied in step 2, and the bounds of the constraint period interval
(see 3.5 and 4.1).
atmost_interval
This model is interesting because of its simplicity and transparency: since a ight can
cross many sectors, it can be aected by several atmost_interval constraints. Regulators
speak about \combining" restrictions but it is dicult for them to evaluate the eects of
such restrictions. Such an overlapping problem is modelled in a transparent way. Another
interest of our model is its extensibility: for instance, it would be obvious to aect a distinct
delay to ights if we considered that some special ights could not be delayed.
8.4.3
clp(FD)
Implementation of our Small Example
The clp(FD) implementation of the small problem presented in 4.3 is provided in table 40.
The solution found by clp(FD) to this problem is S 1 = fV 1 = 2; V 2 = 3; V 3 = 6; V 4 = 4g.
CHAPITRE 8. REGULATION DU TRAFIC AERIEN AVEC CLP(FD)
182
Solution([V1, V2, V3, V4]) :V1 in 2..12,
V2 in 3..13,
V3 in 6..16,
V4 in 2..12,
V'11 #= V1+1,
V'21 #= V2,
V'41 #= V4,
V'12 #= V1+2,
V'22 #= V2+2,
V'32 #= V3,
V'42 #= V4+3,
atmost interval(2, [V'11, V'21, V'41], 2, 3),
atmost interval(3, [V'12, V'22, V'32, V'42], 3, 5),
labeling([V1, V2, V3, V4]).
Tableau 40 : implementation of our small problem with clp(FD) constraints
Flights 1, 2 and 3 can take-o at their requested time, while ight 4 undergoes a 2 unitof-time delay.
8.4.4 Optimization Trials - Heuristics
To solve real cases, we needed to implement some heuristics that we describe in the three
points here below:
1. labeling strategy: clp(FD) labeling works on a list of variables L and backtracks rst
on the last element of L, then on the last but one and so on. This has a shortcoming:
a solution of average delay d1 can be labeled before a solution of average delay d2 with
d2 d1. In our small example, the solution S 2 = fV 1 = 2; V 2 = 4; V 3 = 6; V 4 = 2g
is not found whereas it is better in term of average delay than S 1. For that reason,
we have implemented a new labeling strategy that enumerates solutions in the order
of increasing average delays. The solution S 2 is encountered by such a labeling before
S 1. But we could not use this labeling in practical examples because it is too slow
to nd a solution. To solve practical problems, we have used an heuristic that leads
clp(FD) labeling to nd a good solution rst. It consists rst in ordering take-o
variables in L: the lower bound of the domain of an element i of L is always less than
CHAPITRE 8. REGULATION DU TRAFIC AERIEN AVEC CLP(FD)
183
or equal to the lower bound of the domain of its successor in L. The second part of
the heuristic consists in setting constraints according to an increasing order among
the beginning of their application period. Thanks to this heuristic, clp(FD) nds a
solution that minimizes the average delay;
2. time granularity: the variable domains have bounds from 0 to 1440 (number of minutes of a day); if we allow ights to be delayed up to 3 hours, domains can contain
180 values. Those size considerations can be redhibitory in practical examples (see
the size of such examples in next section). So, to reduce memory size model, we have
chosen to divide all variables and domain bounds by a \time granularity" that can
be 5 or 10 minutes (or else);
3. discrete approach: because of the number of variables and constraints involved, it
is dicult to treat a day taken as a whole. So, we have cut it in slices of 4 hours:
when a ight is delayed by the constraints of a slice, its maximum delay is reduced
accordingly.
8.4.5 Results
Figures 22 and 23 show trac histograms of UM sector before and after the clp(FD)
process: Fig. 22 depicts an overload between 10a.m. and 11a.m. while Fig. 23 has absorbed
it.
Table 41 provides some runtime characteristics: the total number of variables is equal to the
sum of the number of \indomain" constraints and of the number of \equality" constraints.
was processed on a pattern containing about 100 days of a year. This proves a
certain stability with regard to the density of the trac. When no solution is found, we
decrease the period length and/or increase the maximum delay that can be undergone by
a ight.
clp(FD)
To conclude this subsection, we can underline the fact that dealing only with capacity
constraints to make slot allocation has some weaknesses: delays are distributed among all
ights without any discrimination. So, if a regulation plan were created in such a way, it
CHAPITRE 8. REGULATION DU TRAFIC AERIEN AVEC CLP(FD)
Figure 22 : UM trac before CLP process
Figure 23 : UM trac after CLP process
184
CHAPITRE 8. REGULATION DU TRAFIC AERIEN AVEC CLP(FD)
period
length (h)
3
4
5
5
6
3
10
runtime average
delay
(among
delayed
ights)
003900
200300
400800
004400
104200
error
error
average
delay
(among
all
ights)
max
delay
delayed
ights
(p.c.)
number
of
indom.
constr.
numer
of
atmost
constr.
19:160 5:380 500
18:830 4:450 550
17:500 1:900 500
25:780 10:200 750
5:730 2:510 160
28:10
23:64
10:88
39:58
43:80
957
1184
1397
815
1071
814
1761
193
256
320
218
282
199
393
number
of
equality
constr.
13031
21700
29006
12069
19269
9967
40187
185
number
of
ights
4714
4714
4714
4714
4714
4714
4714
Tableau 41 : some runtime examples
would have been impossible to adapt the restrictions to last minute changes during the
real time supervision phase. Hereafter, we describe an extension of the model seen so far
which permits to organize delays in a fairly manner. It corresponds to the way French ow
managers work.
8.4.6 Extension of the Model to Integrate Flow Rate Constraints
Flow Constraint Denition.
A ow constraint (called in Europe a \regulation") is a relation between a trac ow
F , a temporal period T and a rate N=t (N is the maximum number of aircraft that
can feed the ow each t minutes). F can be dened by a set of origins and/or a set of
destinations and/or a set of beacons and/or a set of sectors and/or a ight level layer.
Those properties of a ow are the characteristics that a ight must fulll to be submitted
to the ow constraint.
Generic example of ow constraint:
from SetOfOrigins entering GroupOfSectors
h1 - h2 : N /t
CHAPITRE 8. REGULATION DU TRAFIC AERIEN AVEC CLP(FD)
186
Instantiated example of ow constraint:
from UK to Balearic
10am - 11am : 1/8
The constraint is satised if during T , there are at most N ights belonging to F per slice
of t-minute width.
clp(FD)
Model.
We can detail the 3 types of constraints shown in 4.4 that are necessary to model the
extension to ow rate constraints:
1. domain constraints on departure time variables: this step is identical to the rst step
dened in 4.4;
2. relations between sector entry time variables and departure time variables: capacity
constraints are modelled in the same way than in 4.4; for each ow constraint, a
variable V 0 that corresponds to the adequate instant is created for a ight if the
ight belongs to the constrained ow and \reaches" the constraint (at instant V 0)
within T . \Reaches" means that we will be interested in dierent instants of the ight
according to the constraint type. This instant can be a sector entry time, a beacon
over-ying time, a departure or arrival time. Except this, step 2 is identical to the
second step above-mentioned in 4.4;
3.
atmost_interval
in 4.4;
constraints: this step is identical to the third step above-mentioned
As we can see, the integration of ow rate constraints is very natural. This illustrates the
declarativity and extensibility of our model.
CHAPITRE 8. REGULATION DU TRAFIC AERIEN AVEC CLP(FD)
187
8.4.7 A Simulation Aid Tool for Regulators - Cost estimation
of Regulation Plans
Whatever the point of view may be, either local or global, regulators cannot have a precise
idea of the eects of restrictions on trac ows they impose because of the very large
volume of data, the great interdependency between sectors, and the complexity of the air
route network.
The interest of a simulation aid tool is to let the prominent r^ole and the nal choice to
the regulators when they have at their disposal the cost estimation of a regulation plan
provided by clp(FD). Cost estimation can integrate criteria such as the average or maximum delay, the number of delayed ights, the number and duration of planned restrictions,
the average number of restrictions aecting a ight, the dierence between demand and
capacity (it allows to save a security margin for imponderables). Such a tool can help them
to avoid imposing unnecessary restrictions on ows. Our work has been integrated into the
simulation aid tool SPORT (from which we have provided hardcopies in this paper). This
integration has been easy to do because clp(FD) allows to obtain a C runtime program.
8.5 Conclusion and Further Works
This paper has shown how CLP is well adapted to solve ATFM problems such as departure
slot allocation satisfying dierent types of constraints. Describing a possible extension of
this practical application (ow rate regulation), we have highlighted expressiveness and
exibility of the CLP approach. It seems that numerous ATFM applications can benet
from CLP advantages. Among them, we will now investigate other applications like rerouting, automatic search of ow rate regulations, evaluation of a capacity change cost,
evaluation of ow constraints cost. The eciency of clp(FD) language gives us a good
hope to realize interesting further works.
Chapitre 9
Conclusion
Nous voici donc arrives au terme de cette these dont le l conducteur fut la conception
et la realisation du systeme clp(FD) : un langage logique de programmation avec contraintes sur les domaines nis. En ce qui concerne la partie purement \Prolog" nous avons
choisi une approche originale traduisant Prolog vers C via la WAM. Ceci nous a permis
de disposer d'un Prolog simple, portable, modulaire et ecace. En eet, gr^ace a l'introduction de quelques lignes d'assembleur pour adapter le contr^ole de C a celui de Prolog,
nous disposons d'un systeme compact (une grande partie de la compilation etant laissee
au compilateur C) et dont les performances sont comparables au meilleurs compilateurs
commerciaux (ex. Quintus). Ce compilateur a ensuite ete etendu pour gerer des contraintes
sur les domaines nis. La encore nous avons adopte une approche originale basee sur les
travaux de P. van Hentenryck. L'idee etait de rompre avec l'approche traditionnelle (resolveur vu comme une \bo^te noire") pour eviter ses inconvenients (extensions impossibles,
ignorance de l'implantation, complexite,...). Nous avons donc choisi une approche \bo^te
de verre" basee sur la denition de contraintes primitives, simples et en nombre limite
permettant de reb^atir les contraintes complexes (arithmetiques et symboliques) usuelles.
En ce qui concerne les domaines nis, il est remarquable qu'une seule contrainte primitive
soit susante. Celle-ci peut ^etre consideree comme un langage de base pour exprimer les
mecanismes de propagation et la methode de resolution choisie pour traiter une contrainte
complexe. Ceci nous a conduit a un processus en deux etapes : traduction des contraintes
complexes en primitives (a la compilation) et implantation d'un resolveur pour prendre
en charge la primitive (a l'execution). Le resolveur ainsi obtenu est simple, uniforme et
188
CHAPITRE 9. CONCLUSION
189
homogene. Le systeme de contraintes est, de plus, ouvert a l'utilisateur qui peut denir de
nouvelles contraintes en speciant leur traduction en termes de primitives. Le traitement
d'une seule primitive nous a permis de denir des optimisations pour eviter les reveils de
contraintes inutiles. Ces optimisations protent evidemment a toutes les contraintes de
haut niveau puisque b^aties sur cette primitive. Ceci est a comparer aux optimisations adhoc des solveurs \bo^te noires". L'etude des performances de clp(FD) montre que ces choix
etaient justies et que l'approche \bo^te de verre" conduit a un resolveur plus ecace que
ceux b^atis sur une schema de \bo^te noire". En eet, le systeme clp(FD) se revele ^etre en
moyenne 4 fois plus rapide que CHIP dont l'ecacite n'est plus a demontrer. Un des apports essentiels de cette these est la denition d'une machine abstraite pour la compilation
des contraintes sur les domaines nis. Ceci est important pour deux raisons :
c'est la premiere fois qu'un schema de compilation pour les contraintes sur les domaines nis est presente. De plus ce schema est a la fois simple et ecace et sa
granularite est susamment ne pour permettre une comprehension aisee et une
traduction instantanee dans tout langage (y compris l'assembleur)1 .
cette machine abstraite permet reellement de comprendre \comment" implanter un
compilateur pour les contraintes sur les domaines nis. L'on peut comparer cela
(toutes proportions gardees !) a ce qui s'est passe avec la WAM. Avant cette machine
la compilation de Prolog semblait impossible (on a dit de Prolog comme de Lisp
que c'etait un langage incompilable) ou reservee a un cercle restreint d'implanteurs.
Depuis la WAM, l'ecriture d'un compilateur Prolog ne fait plus gure d'epouvantail et bon nombre d'equipes de recherche ont developpe leur propre systeme. Il
en est de m^eme avec la denition de notre machine abstraite pour la compilation
des contraintes sur les domaines nis qui sert aujourd'hui de base pour l'integration
de contraintes dans des systemes tels que : AKL(FD) a SICS (S. Janson, B. Carlson),
Oz(FD) au DFKI (G. Smolka, J. Wuertz), langage successeur de LIFE a Simon Fraser
University (H. At-Kaci, S. Le Huitouze), Scheme(FD) a l'INRIA (J-M. Geroy),...
Nous avons montre les capacites d'extension du solveur en denissant un resolveur booleen
ecrit en 10 lignes de clp(FD). Celui-ci s'est revele ^etre 10 fois plus rapide que le resolveur
ce qui n'est pas le cas du peu qui est presente dans l'article \Overview of the CHIP compiler" qui,
avouons-le, ne donne aucune information pratique sur \comment" compiler les contraintes. D'ailleurs le
compilateur CHIP, 3 ans apres, n'a toujours pas vu le jour.
1
CHAPITRE 9. CONCLUSION
190
equivalent de CHIP mais aussi bien plus ecace que beaucoup de solveurs specialement
concus pour les booleens.
Le systeme clp(FD) est desormais un systeme complet et operationnel. Il est disponible
par ftp et a deja ete recupere a plus de 350 exemplaires. Des industriels ont ete interesses
par clp(FD), citons par exemple:
le Centre d'Etudes de la Navigation Aerienne (a Orly) qui utilise clp(FD) pour la
regulation du trac aerien (cf. chapitre 8).
Dassault Aviation (a St Cloud) pour faire du raisonnement qualitatif. Les essais pre-
liminaires ont montre que clp(FD) etait 200 fois plus rapide que le logiciel developpe
par Dassault.
N.A.S.A. (en Californie) pour choisir, parmi plusieurs modelisations d'un probleme
donne, celle qui minimise une certaine fonction de co^ut (dependant du nombre de
variables, de contraintes,...).
Enn, nous avons ete agreablement surpris de constater que clp(FD) etait utilise comme
support de cours sur les contraintes (a SICS par M. Carlsson, a l'universite de G^enes par
A. Messora et dans une universite de Grece).
Notre experience nous a montre combien l'extensibilite du resolveur etait cruciale pour les
applications reelles. A tel point qu'il nous faut maintenant sortir du moule trop restrictif
des \calculs diriges par les instructions" pour nous orienter vers des \calculs diriges par les
donnees". Le cadre CC (langages concurrents avec contraintes) semble le plus prometteur
gr^ace a la simplicite avec laquelle il permet les synchronisations. En eet, par rapport au
cadre PLC, il ne necessite qu'une seule nouvelle operation (nommee Ask) permettant de
suspendre l'execution d'un calcul jusqu'au succes d'une certaine contrainte. La detection
de la satisfaction de cette contrainte est evidemment le point cle pour implanter le Ask.
La encore nous benecions de l'approche \bo^te de verre" puisqu'il nous sut de savoir
detecter la satisfaction de l'unique primitive. La methode presentee permet de deriver
d'apres la syntaxe de la contrainte (i.e. statiquement), une condition qui, aussit^ot vraie,
nous assure que la contrainte consideree est satisfaite (i.e. condition susante). Nous avons
donc en main les outils necessaires au passage a la concurrence. Au travail...
Annexe A
Programme crypta
/*----------------------------------------------------------------------*/
/* Benchmark (Finite Domain)
INRIA Rocquencourt - ChLoE Project */
/*
*/
/* Name
: crypta.pl
*/
/* Title
: crypt-arithmetic
*/
/* Original Source: P. Van Hentenryck's book
*/
/* Adapted by
: Daniel Diaz - INRIA France
*/
/* Date
: September 1992
*/
/*
*/
/* Solve the operation:
*/
/*
*/
/*
B A I J J A J I I A H F C F E B B J E A
*/
/* + D H F G A B C D I D B I F F A G F E J E
*/
/* ----------------------------------------*/
/* = G J E G A C D D H F A F J B F I H E E F
*/
/*
*/
/* Solution:
*/
/* [A,B,C,D,E,F,G,H,I,J]
*/
/* [1,2,3,4,5,6,7,8,9,0]
*/
/*----------------------------------------------------------------------*/
crypta(LD):fd_vector_max(9),
LD=[A,B,C,D,E,F,G,H,I,J],
alldifferent(LD),
domain(LD,0,9),
191
ANNEXE A. PROGRAMME CRYPTA
domain([Sr1,Sr2],0,1),
B in 1..9,
D in 1..9,
G in 1..9,
A+10*E+100*J+1000*B+10000*B+100000*E+1000000*F+
E+10*J+100*E+1000*F+10000*G+100000*A+1000000*F
#= F+10*E+100*E+1000*H+10000*I+100000*F+1000000*B+10000000*Sr1,
C+10*F+100*H+1000*A+10000*I+100000*I+1000000*J+
F+10*I+100*B+1000*D+10000*I+100000*D+1000000*C+Sr1
#= J+10*F+100*A+1000*F+10000*H+100000*D+1000000*D+10000000*Sr2,
A+10*J+100*J+1000*I+10000*A+100000*B+
B+10*A+100*G+1000*F+10000*H+100000*D+Sr2
#= C+10*A+100*G+1000*E+10000*J+100000*G,
labeling(LD).
192
Annexe B
Programme eq10
/*----------------------------------------------------------------------*/
/* Benchmark (Finite Domain)
INRIA Rocquencourt - ChLoE Project */
/*
*/
/* Name
: eq10.pl
*/
/* Title
: linear equations
*/
/* Original Source: Thomson LCR
*/
/* Adapted by
: Daniel Diaz - INRIA France
*/
/* Date
: September 1992
*/
/*
*/
/* A system involving 7 variables and 10 equations
*/
/*
*/
/* Solution:
*/
/* [X1,X2,X3,X4,X5,X6,X7]
*/
/* [ 6, 0, 8, 4, 9, 3, 9]
*/
/*----------------------------------------------------------------------*/
eq10(Lab):LD = [X1,X2,X3,X4,X5,X6,X7],
domain(LD,0,10),
0+98527*X1+34588*X2+5872*X3+59422*X5+65159*X7
#= 1547604+30704*X4+29649*X6,
0+98957*X2+83634*X3+69966*X4+62038*X5+37164*X6+85413*X7
#= 1823553+93989*X1,
900032+10949*X1+77761*X2+67052*X5
193
ANNEXE B. PROGRAMME EQ10
#= 0+80197*X3+61944*X4+92964*X6+44550*X7,
0+73947*X1+84391*X3+81310*X5
#= 1164380+96253*X2+44247*X4+70582*X6+33054*X7,
0+13057*X3+42253*X4+77527*X5+96552*X7
#= 1185471+60152*X1+21103*X2+97932*X6,
1394152+66920*X1+55679*X4
#= 0+64234*X2+65337*X3+45581*X5+67707*X6+98038*X7,
0+68550*X1+27886*X2+31716*X3+73597*X4+38835*X7
#= 279091+88963*X5+76391*X6,
0+76132*X2+71860*X3+22770*X4+68211*X5+78587*X6
#= 480923+48224*X1+82817*X7,
519878+94198*X2+87234*X3+37498*X4
#= 0+71583*X1+25728*X5+25495*X6+70023*X7,
361921+78693*X1+38592*X5+38478*X6
#= 0+94129*X2+43188*X3+82528*X4+69025*X7,
labeling(LD).
194
Annexe C
Programme eq20
/*----------------------------------------------------------------------*/
/* Benchmark (Finite Domain)
INRIA Rocquencourt - ChLoE Project */
/*
*/
/* Name
: eq20.pl
*/
/* Title
: linear equations
*/
/* Original Source: Thomson LCR
*/
/* Adapted by
: Daniel Diaz - INRIA France
*/
/* Date
: September 1992
*/
/*
*/
/* A system involving 7 variables and 20 equations
*/
/*
*/
/* Solution:
*/
/* [X1,X2,X3,X4,X5,X6,X7]
*/
/* [ 1, 4, 6, 6, 6, 3, 1]
*/
/*----------------------------------------------------------------------*/
eq20(LD):LD = [X1,X2,X3,X4,X5,X6,X7],
domain(LD,0,10),
876370+16105*X1+6704*X3+68610*X6
#= 0+62397*X2+43340*X4+95100*X5+58301*X7,
533909+96722*X5
#= 0+51637*X1+67761*X2+95951*X3+3834*X4+59190*X6+15280*X7,
915683+34121*X2+33488*X7
195
ANNEXE C. PROGRAMME EQ20
#= 0+1671*X1+10763*X3+80609*X4+42532*X5+93520*X6,
129768+11119*X2+38875*X4+14413*X5+29234*X6
#= 0+71202*X1+73017*X3+72370*X7,
752447+58412*X2
#= 0+8874*X1+73947*X3+17147*X4+62335*X5+16005*X6+8632*X7,
90614+18810*X3+48219*X4+79785*X7
#= 0+85268*X1+54180*X2+6013*X5+78169*X6,
1198280+45086*X1+4578*X3
#= 0+51830*X2+96120*X4+21231*X5+97919*X6+65651*X7,
18465+64919*X1+59624*X4+75542*X5+47935*X7
#= 0+80460*X2+90840*X3+25145*X6,
0+43525*X2+92298*X3+58630*X4+92590*X5
#= 1503588+43277*X1+9372*X6+60227*X7,
0+47385*X2+97715*X3+69028*X5+76212*X6
#= 1244857+16835*X1+12640*X4+81102*X7,
0+31227*X2+93951*X3+73889*X4+81526*X5+68026*X7
#= 1410723+60301*X1+72702*X6,
0+94016*X1+35961*X3+66597*X4
#= 25334+82071*X2+30705*X5+44404*X6+38304*X7,
0+84750*X2+21239*X4+81675*X5
#= 277271+67456*X1+51553*X3+99395*X6+4254*X7,
0+29958*X2+57308*X3+48789*X4+4657*X6+34539*X7
#= 249912+85698*X1+78219*X5,
0+85176*X1+57898*X4+15883*X5+50547*X6+83287*X7
#= 373854+95332*X2+1268*X3,
0+87758*X2+19346*X4+70072*X5+44529*X7
#= 740061+10343*X1+11782*X3+36991*X6,
0+49149*X1+52871*X2+56728*X4
#= 146074+7132*X3+33576*X5+49530*X6+62089*X7,
196
ANNEXE C. PROGRAMME EQ20
0+29475*X2+34421*X3+62646*X5+29278*X6
#= 251591+60113*X1+76870*X4+15212*X7,
22167+29101*X2+5513*X3+21219*X4
#= 0+87059*X1+22128*X5+7276*X6+57308*X7,
821228+76706*X1+48614*X6+41906*X7
#= 0+98205*X2+23445*X3+67921*X4+24111*X5,
labeling(LD).
197
Annexe D
Programme alpha
/*----------------------------------------------------------------------*/
/* Benchmark (Finite Domain)
INRIA Rocquencourt - ChLoE Project */
/*
*/
/* Name
: alpha.pl
*/
/* Title
: alphacipher
*/
/* Original Source: Daniel Diaz - INRIA France
*/
/* Adapted by
:
*/
/* Date
: January 1993
*/
/*
*/
/* This problem comes from the news group rec.puzzle.
*/
/* The numbers 1 - 26 have been randomly assigned to the letters of the */
/* alphabet. The numbers beside each word are the total of the values
*/
/* assigned to the letters in the word. e.g for LYRE L,Y,R,E might equal*/
/* 5,9,20 and 13 respectively or any other combination that add up to 47*/
/* Find the value of each letter under the equations:
*/
/*
*/
/*
BALLET 45
GLEE 66
POLKA
59
SONG
61
*/
/*
CELLO
43
JAZZ 58
QUARTET
50
SOPRANO 82
*/
/*
CONCERT 74
LYRE 47
SAXOPHONE 134
THEME
72
*/
/*
FLUTE
30
OBOE 53
SCALE
51
VIOLIN 100
*/
/*
FUGUE
50
OPERA 65
SOLO
37
WALTZ
34
*/
/*
*/
/* Solution:
*/
/*[A, B,C, D, E,F, G, H, I, J, K,L,M, N, O, P,Q, R, S,T,U, V,W, X, Y, Z]*/
/*[5,13,9,16,20,4,24,21,25,17,23,2,8,12,10,19,7,11,15,3,1,26,6,22,14,18]*/
/*----------------------------------------------------------------------*/
198
ANNEXE D. PROGRAMME ALPHA
alpha(LD):fd_vector_max(26),
LD=[A,B,C,_D,E,F,G,H,I,J,K,L,M,N,O,P,Q,R,S,T,U,V,W,X,Y,Z],
alldifferent(LD),
domain(LD,1,26),
B+A+L+L+E+T
C+E+L+L+O
C+O+N+C+E+R+T
F+L+U+T+E
F+U+G+U+E
G+L+E+E
J+A+Z+Z
L+Y+R+E
O+B+O+E
O+P+E+R+A
P+O+L+K+A
Q+U+A+R+T+E+T
S+A+X+O+P+H+O+N+E
S+C+A+L+E
S+O+L+O
S+O+N+G
S+O+P+R+A+N+O
T+H+E+M+E
V+I+O+L+I+N
W+A+L+T+Z
%
labeling(LD).
labelingff(LD).
#=
#=
#=
#=
#=
#=
#=
#=
#=
#=
#=
#=
#=
#=
#=
#=
#=
#=
#=
#=
45,
43,
74,
30,
50,
66,
58,
47,
53,
65,
59,
50,
134,
51,
37,
61,
82,
72,
100,
34,
199
Annexe E
Programme queens
/*----------------------------------------------------------------------*/
/* Benchmark (Finite Domain)
INRIA Rocquencourt - ChLoE Project */
/*
*/
/* Name
: queens.pl
*/
/* Title
: N-queens problem
*/
/* Original Source: P. Van Hentenryck's book
*/
/* Adapted by
: Daniel Diaz - INRIA France
*/
/* Date
: January 1993
*/
/*
*/
/* Put N queens on an NxN chessboard so that there is no couple of
*/
/* queens threatening each other.
*/
/*
*/
/* Solution:
*/
/* N=4 [2,4,1,3]
*/
/* N=8 [1,5,8,6,3,7,2,4]
*/
/* N=16 [1,3,5,2,13,9,14,12,15,6,16,7,4,11,8,10]
*/
/*----------------------------------------------------------------------*/
queens(N,L):fd_vector_max(N),
length(L,N),
domain(L,1,N),
safe(L),
labeling(L).
%
labelingff(L).
200
ANNEXE E. PROGRAMME QUEENS
safe([]).
safe([X|L]):noattack(L,X,1),
safe(L).
noattack([],_,_).
noattack([Y|L],X,I):diff(X,Y,I),
I1 is I+1,
noattack(L,X,I1).
diff(X,Y,I):X in -{val(Y)} & -{val(Y)-I} & -{val(Y)+I},
Y in -{val(X)} & -{val(X)-I} & -{val(X)+I}.
201
Annexe F
Programme ve
/*----------------------------------------------------------------------*/
/* Benchmark (Finite Domain)
INRIA Rocquencourt - ChLoE Project */
/*
*/
/* Name
: five.pl
*/
/* Title
: five house puzzle
*/
/* Original Source: P. Van Hentenryck's book
*/
/* Adapted by
: Daniel Diaz - INRIA France
*/
/* Date
: September 1992
*/
/*
*/
/* A logic puzzle
*/
/*
*/
/* Solution:
*/
/* [N1,N2,N3,N4,N5,
[3,4,5,2,1,
*/
/*
C1,C2,C3,C4,C5,
5,3,1,2,4,
*/
/*
P1,P2,P3,P4,P5,
5,1,4,2,3,
*/
/*
A1,A2,A3,A4,A5,
4,5,1,3,2,
*/
/*
D1,D2,D3,D4,D5]
4,1,2,5,3]
*/
/*----------------------------------------------------------------------*/
five_house(L):fd_vector_max(5),
L=[N1,N2,N3,N4,N5,
C1,C2,C3,C4,C5,
P1,P2,P3,P4,P5,
A1,A2,A3,A4,A5,
D1,D2,D3,D4,D5],
202
ANNEXE F. PROGRAMME FIVE
domain(L,1,5),
N5 #= 1,
D5 #= 3,
alldifferent([C1,C2,C3,C4,C5]),
alldifferent([P1,P2,P3,P4,P5]),
alldifferent([N1,N2,N3,N4,N5]),
alldifferent([A1,A2,A3,A4,A5]),
alldifferent([D1,D2,D3,D4,D5]),
N1
N2
N3
N4
P3
C1
P5
P2
C1
#=
#=
#=
#=
#=
#=
#=
#=
#=
C2,
A1,
P1,
D3,
D1,
D4,
A4,
C3,
C5+1,
plus_or_minus(A3,P4,1),
plus_or_minus(A5,P2,1),
plus_or_minus(N5,C4,1),
labeling(L).
% partial lookahead
plus_or_minus(X,Y,C):X #= Y+C.
plus_or_minus(X,Y,C):X+C #= Y.
% constructive disjunction and partial lookahead
/*
plus_or_minus(X,Y,C):X in min(Y)+C..max(Y)+C:min(Y)-C..max(Y)-C,
Y in min(X)+C..max(X)+C:min(X)-C..max(X)-C.
*/
203
Annexe G
Programme cars
/*----------------------------------------------------------------------*/
/* Benchmark (Finite Domain)
INRIA Rocquencourt - ChLoE Project */
/*
*/
/* Name
: cars.pl
*/
/* Title
: car sequencing problem
*/
/* Original Source: Dincbas, Simonis and Van Hentenryck
*/
/* Adapted by
: Daniel Diaz - INRIA France
*/
/* Date
: September 1992
*/
/*
*/
/* Car sequencing problem with 10 cars
*/
/* Solution:
*/
/*
[1,2,6,3,5,4,4,5,3,6]
*/
/*
[1,3,6,2,5,4,3,5,4,6]
*/
/*
[1,3,6,2,6,4,5,3,4,5]
*/
/*
[5,4,3,5,4,6,2,6,3,1]
*/
/*
[6,3,5,4,4,5,3,6,2,1]
*/
/*
[6,4,5,3,4,5,2,6,3,1]
*/
/*
*/
/*----------------------------------------------------------------------*/
cars(X):fd_vector_max(6),
X=[X1,X2,X3,X4,X5,X6,X7,X8,X9,X10],
Y=[O11,O12,O13,O14,O15,
O21,O22,O23,O24,O25,
O31,O32,O33,O34,O35,
204
ANNEXE G. PROGRAMME CARS
O41,O42,O43,O44,O45,
O51,O52,O53,O54,O55,
O61,O62,O63,O64,O65,
O71,O72,O73,O74,O75,
O81,O82,O83,O84,O85,
O91,O92,O93,O94,O95,
O101,O102,O103,O104,O105],
L1=[1,0,0,0,1,1],
L2=[0,0,1,1,0,1],
L3=[1,0,0,0,1,0],
L4=[1,1,0,1,0,0],
L5=[0,0,1,0,0,0],
domain(Y,0,1),
domain(X,1,6),
atmost(1,X,1),
atmost(1,X,2),
atmost(2,X,3),
atmost(2,X,4),
atmost(2,X,5),
atmost(2,X,6),
element(X1,L1,O11),
element(X1,L2,O12),
element(X1,L3,O13),
element(X1,L4,O14),
element(X1,L5,O15),
element(X2,L1,O21),
element(X2,L2,O22),
element(X2,L3,O23),
element(X2,L4,O24),
element(X2,L5,O25),
element(X3,L1,O31),
element(X3,L2,O32),
element(X3,L3,O33),
element(X3,L4,O34),
element(X3,L5,O35),
205
ANNEXE G. PROGRAMME CARS
element(X4,L1,O41),
element(X4,L2,O42),
element(X4,L3,O43),
element(X4,L4,O44),
element(X4,L5,O45),
element(X5,L1,O51),
element(X5,L2,O52),
element(X5,L3,O53),
element(X5,L4,O54),
element(X5,L5,O55),
element(X6,L1,O61),
element(X6,L2,O62),
element(X6,L3,O63),
element(X6,L4,O64),
element(X6,L5,O65),
element(X7,L1,O71),
element(X7,L2,O72),
element(X7,L3,O73),
element(X7,L4,O74),
element(X7,L5,O75),
element(X8,L1,O81),
element(X8,L2,O82),
element(X8,L3,O83),
element(X8,L4,O84),
element(X8,L5,O85),
element(X9,L1,O91),
element(X9,L2,O92),
element(X9,L3,O93),
element(X9,L4,O94),
element(X9,L5,O95),
element(X10,L1,O101),
element(X10,L2,O102),
element(X10,L3,O103),
element(X10,L4,O104),
element(X10,L5,O105),
1 #>= O11+O21,
206
ANNEXE G. PROGRAMME CARS
1
1
1
1
1
1
1
1
2
2
2
2
2
2
2
2
1
1
1
1
1
1
1
1
2
2
2
2
2
2
1
1
1
1
1
1
#>=
#>=
#>=
#>=
#>=
#>=
#>=
#>=
#>=
#>=
#>=
#>=
#>=
#>=
#>=
#>=
#>=
#>=
#>=
#>=
#>=
#>=
#>=
#>=
#>=
#>=
#>=
#>=
#>=
#>=
#>=
#>=
#>=
#>=
#>=
#>=
O21+O31,
O31+O41,
O41+O51,
O51+O61,
O61+O71,
O71+O81,
O81+O91,
O91+O101,
O12+O22+O32,
O22+O32+O42,
O32+O42+O52,
O42+O52+O62,
O52+O62+O72,
O62+O72+O82,
O72+O82+O92,
O82+O92+O102,
O13+O23+O33,
O23+O33+O43,
O33+O43+O53,
O43+O53+O63,
O53+O63+O73,
O63+O73+O83,
O73+O83+O93,
O83+O93+O103,
O14+O24+O34+O44+O54,
O24+O34+O44+O54+O64,
O34+O44+O54+O64+O74,
O44+O54+O64+O74+O84,
O54+O64+O74+O84+O94,
O64+O74+O84+O94+O104,
O15+O25+O35+O45+O55,
O25+O35+O45+O55+O65,
O35+O45+O55+O65+O75,
O45+O55+O65+O75+O85,
O55+O65+O75+O85+O95,
O65+O75+O85+O95+O105,
% redundant constraints
O11+O21+O31+O41+O51+O61+O71+O81 #>= 4,
207
ANNEXE G. PROGRAMME CARS
208
O11+O21+O31+O41+O51+O61
O11+O21+O31+O41
O11+O21
#>= 3,
#>= 2,
#>= 1,
O12+O22+O32+O42+O52+O62+O72
O12+O22+O32+O42
O12
#>= 4,
#>= 2,
#>= 0,
O13+O23+O33+O43+O53+O63+O73
O13+O23+O33+O43
O13
#>= 2,
#>= 1,
#>= 0,
O14+O24+O34+O44+O54
#>= 2,
O15+O25+O35+O45+O55
#>= 1,
labeling(X).
Annexe H
Programme bridge
/*----------------------------------------------------------------------*/
/* Benchmark (Finite Domain)
INRIA Rocquencourt - ChLoE Project */
/*
*/
/* Name
: bridge.pl
*/
/* Title
: bridge scheduling problem
*/
/* Original Source: P. Van Hentenryck's book and
*/
/*
COSYTEC (vers. of "Overview of a CHIP Compiler")
*/
/* Adapted by
: Daniel Diaz - INRIA France
*/
/* Date
: October 1994
*/
/*
*/
/* Find a scheduling that minimizes the time to build a 5-segment bridge*/
/*
*/
/* Solution:
*/
/*
*/
/* Optimal (End=104)
*/
/*
*/
/*[[start,0,0],[a1,4,3],[a2,2,13],[a3,2,7],[a4,2,15],[a5,2,1],[a6,5,38],*/
/*[p1,20,9],[p2,13,29],[ue,10,0],[s1,8,10],[s2,4,18],[s3,4,29],[s4,4,42]*/
/*[s5,4,6],[s6,10,46],[b1,1,18],[b2,1,22],[b3,1,33],[b4,1,46],[b5,1,10],*/
/*[b6,1,56],[ab1,1,19],[ab2,1,23],[ab3,1,34],[ab4,1,47],[ab5,1,11],
*/
/*[ab6,1,57],[m1,16,20],[m2,8,36],[m3,8,44],[m4,8,52],[m5,8,12],
*/
/*[m6,20,60],[l1,2,30],[t1,12,44],[t2,12,56],[t3,12,68],[t4,12,92],
*/
/*[t5,12,80],[ua,10,78],[v1,15,56],[v2,10,92],[k1,0,42],[k2,0,80],
*/
/*[stop,0,104]]
*/
/*----------------------------------------------------------------------*/
bridge(K,Ende):-
209
ANNEXE H. PROGRAMME BRIDGE
210
setup(K,Ende,Disj),
minof(choice(Disj,K),Ende).
setup(K,Ende,Disj):jobs(L),
make_vars(L,K),
member([stop,_,Ende],K),
precedence(M),
make_precedence(M,K),
max_nf(M1),
make_max_nf(M1,K),
max_ef(M2),
make_max_ef(M2,K),
min_af(M3),
make_min_af(M3,K),
min_sf(M4),
make_min_sf(M4,K),
min_nf(M5),
make_min_nf(M5,K),
resources(R),
make_disj(R,K,[],Disj1),
reverse(Disj1,Disj).
choice(Disj,K):disjunct(Disj),
label(K).
make_vars([],[]).
make_vars([H|T],[[H,D,A]|R]):duration(H,D),
A in 0..200,
make_vars(T,R).
make_precedence([],_).
make_precedence([[A,B]|R],L):member([A,Ad,Aa],L),
member([B,Bd,Ba],L),
greatereqc(Ba,Aa,Ad),
make_precedence(R,L).
make_max_nf([],_).
% Ba #>= Aa+Ad,
ANNEXE H. PROGRAMME BRIDGE
make_max_nf([[A,B,C]|R],L):member([A,Ad,Aa],L),
member([B,Bd,Ba],L),
C1 is C + Ad,
smallereqc(Ba,Aa,C1),
make_max_nf(R,L).
make_max_ef([],_).
make_max_ef([[A,B,C]|R],L):member([A,Ad,Aa],L),
member([B,Bd,Ba],L),
C1 is Ad + C - Bd,
smallereqc(Ba,Aa,C1),
make_max_ef(R,L).
make_min_af([],_).
make_min_af([[A,B,C]|R],L):member([A,Ad,Aa],L),
member([B,Bd,Ba],L),
greatereqc(Ba,Aa,C),
make_min_af(R,L).
make_min_sf([],_).
make_min_sf([[A,B,C]|R],L):member([A,Ad,Aa],L),
member([B,Bd,Ba],L),
C1 is C - Bd,
smallereqc(Ba,Aa,C1),
make_min_sf(R,L).
make_min_nf([],_).
make_min_nf([[A,B,C]|R],L):member([A,Ad,Aa],L),
member([B,Bd,Ba],L),
C1 is C + Ad,
greatereqc(Ba,Ad,C1),
make_min_nf(R,L).
make_disj([],R,D,D).
make_disj([[H,R]|T],K,Din,Dout):el_list(R,K,R1),
make_disj1(R1,Din,D1),
make_disj(T,K,D1,Dout).
211
% Ba #<= Aa+C1,
% Ba #<= Aa+C1,
% Ba #>= Aa+C,
% Ba #<= Aa+C1,
% Ba #>= Ad+C1,
ANNEXE H. PROGRAMME BRIDGE
212
make_disj1([],D,D).
make_disj1([H|T],Din,Dout):make_disj2(H,T,Din,D1),
make_disj1(T,D1,Dout).
make_disj2(H,[],D,D).
make_disj2([A,B],[[C,D]|S],Din,Dout):make_disj2([A,B],S,[[A,B,C,D]|Din],Dout).
el_list([],_,[]).
el_list([H|T],L,[[A,D]|S]):member([H,D,A],L),
el_list(T,L,S).
disjunct([]).
disjunct([[A,B,C,D]|R]):disj(A,B,C,D),
disjunct(R).
disj(Aa,Ad,Ba,Bd):greatereqc(Ba,Aa,Ad).
% Ba #>= Aa+Ad.
disj(Aa,Ad,Ba,Bd):greatereqc(Aa,Ba,Bd).
% Aa #>= Ba+Bd.
label([]).
label([[A,Ad,Aa]|R]):indomain(Aa),
label(R).
/* constraint definitions */
smallereqc(X,Y,C):X in 0
..max(Y)+C,
Y in min(X)-C..infinity.
% X #<= Y+C
ANNEXE H. PROGRAMME BRIDGE
greatereqc(X,Y,C):X in min(Y)+C..infinity,
Y in 0
..max(X)-C.
213
% X #>= Y+C.
/*
DATA
*/
jobs([start,a1,a2,a3,a4,a5,a6,p1,p2,ue,s1,s2,s3,s4,s5,s6,
b1,b2,b3,b4,b5,b6,ab1,ab2,ab3,ab4,ab5,ab6,m1,m2,m3,m4,m5,m6,
l1,t1,t2,t3,t4,t5,ua,v1,v2,k1,k2,stop]).
duration(start,0).
duration(a1,4).
duration(a2,2).
duration(a3,2).
duration(a4,2).
duration(a5,2).
duration(a6,5).
duration(p1,20).
duration(p2,13).
duration(ue,10).
duration(s1,8).
duration(s2,4).
duration(s3,4).
duration(s4,4).
duration(s5,4).
duration(s6,10).
duration(b1,1).
duration(b2,1).
duration(b3,1).
duration(b4,1).
duration(b5,1).
duration(b6,1).
duration(ab1,1).
ANNEXE H. PROGRAMME BRIDGE
duration(ab2,1).
duration(ab3,1).
duration(ab4,1).
duration(ab5,1).
duration(ab6,1).
duration(m1,16).
duration(m2,8).
duration(m3,8).
duration(m4,8).
duration(m5,8).
duration(m6,20).
duration(l1,2).
duration(t1,12).
duration(t2,12).
duration(t3,12).
duration(t4,12).
duration(t5,12).
duration(ua,10).
duration(v1,15).
duration(v2,10).
duration(k1,0).
duration(k2,0).
duration(stop,0).
precedence([[start,a1],[start,a2],[start,a3],[start,a4],[start,a5],
[start,a6],[start,ue],[a1,s1],[a2,s2],[a5,s5],
[a6,s6],[a3,p1],[a4,p2],[p1,s3],[p2,s4],
[p1,k1],[p2,k1],[s1,b1],[s2,b2],
[s3,b3],[s4,b4],[s5,b5],[s6,b6],[b1,ab1],
[b2,ab2],[b3,ab3],[b4,ab4],[b5,ab5],[b6,ab6],
[ab1,m1],[ab2,m2],[ab3,m3],[ab4,m4],[ab5,m5],
[ab6,m6],[m1,t1],[m2,t1],[m2,t2],[m3,t2],
[m3,t3],[m4,t3],[m4,t4],[m5,t4],[m5,t5],
[m6,t5],[m1,k2],[m2,k2],[m3,k2],[m4,k2],
[m5,k2],[m6,k2],[l1,t1],[l1,t2],[l1,t3],
[l1,t4],[l1,t5],[t1,v1],[t5,v2],[t2,stop],
[t3,stop],[t4,stop],[v1,stop],[v2,stop],[ua,stop],
[k2,stop]]).
max_nf([[start,l1,30],[a1,s1,3],[a2,s2,3],[a5,s5,3],
[a6,s6,3],[p1,s3,3],[p2,s4,3]]).
min_sf([[ua,m1,2],[ua,m2,2],[ua,m3,2],[ua,m4,2],
214
ANNEXE H. PROGRAMME BRIDGE
[ua,m5,2],[ua,m6,2]]).
max_ef([[s1,b1,4],[s2,b2,4],[s3,b3,4],[s4,b4,4],[s5,b5,4],[s6,b6,4]]).
min_nf([[start,l1,30]]).
min_af([[ue,s1,6],[ue,s2,6],[ue,s3,6],[ue,s4,6],[ue,s5,6],[ue,s6,6]]).
resources([[crane,[l1,t1,t2,t3,t4,t5]],
[bricklaying,[m1,m2,m3,m4,m5,m6]],
[schal,[s1,s2,s3,s4,s5,s6]],
[excavator,[a1,a2,a3,a4,a5,a6]],
[ram,[p1,p2]],
[pump,[b1,b2,b3,b4,b5,b6]],
[caterpillar,[v1,v2]]]).
215
Annexe I
Manuel d'utilisation de wamcc
wamcc 2.21
User's Manual
Daniel Diaz
INRIA-Rocquencourt
Domaine de Voluceau
78153 Le Chesnay
FRANCE
Daniel.Diaz@inria.fr
July 1994
This manual is based on DECsystem-10 Prolog User's Manual by D.L.
Bowen, L. Byrd, F.C.N. Pereira, L.M. Pereira, D.H.D. Warren
and on SICStus Prolog User's Manual by Mats Carlsson
216
ANNEXE I. MANUEL D'UTILISATION DE WAMCC
217
I.1 Using wamcc - Modularity
is a Prolog compiler which translates Prolog to C via the WAM (Warren Abstract
Machine). A Prolog le will give rise to a C source le which will be compiled by gcc.
Several Prolog les can be compiled separately and linked by the loader to provide a Unix
executable. A prolog le is a module. It is possible (and recommended) to split a big
application into several little modules. Each module has its own independent predicate
name space. This is an important feature for the development of larger programs. The
module system of wamcc Prolog is procedure based. This means that only the predicates
are local to a module, whereas terms are global. The module system is at, not hierarchical,
so all modules are visible to one another. No overhead is incurred on compiled calls to
predicates in other modules. Each predicate in the Prolog system, whether built-in or
user dened, belongs to a module. By default, a predicate is generally only visible in the
module where it is dened (i.e. private predicate) except if this predicate has been declared
as public (see directive :- public below). Public predicates are visible in every modules. A
public predicate can be locally redened in any module. There is a particular module: the
main module corresponding to the module containing the main program1 (see directives
:- main below). At run-time only public predicates and private predicates dened in the
main module will be visible under the top level. wamcc also supports dynamic predicates
which are interpreted (see section I.3.8).
wamcc
The following directives are specially handled at compile-time:
:- public Pred1 /Arity1 , ..., Predn /Arityn .
This directive species that each Predi /Arityi is a public predicate.
:- dynamic Pred1 /Arity1 , ..., Predn /Arityn .
This directive species that each Predi /Arityi is a dynamic predicate (see section I.3.8 for dynamic code facilities).
:- main.
:- main(+Modules).
1
The main module will contain the C funtion main().
ANNEXE I. MANUEL D'UTILISATION DE WAMCC
218
:- main(+Modules,+Stacks).
This directive species the current module is the main module. Modules is the list
of needed modules (omitted if there are no other modules). Stacks is a list of stack
parameters of the form stack(+Name,+EnvVarName,+Size). Name is the stack name
(see section I.4). EnvVarName is the name of the environment variable to consult at
run-time to read the size of the stack. If EnvVarName is the empty atom (i.e. '')
no environment variable will be consulted at run-time for this stack. Size is the
default stack size in Kbytes (if the variable EnvVarName is not dened at run-time).
If there is not any denition for a stack stack name the default environment variable
is stack nameSZ in upper case (see also section I.2.4).
Note that other directives are not executed at compile-time but they are compiled into
special code which will be executed at run-time2 . More precisely, at run-time, all directives
of each module dened in Modules are executed then the directives of the main module
are executed. When the main module is compiled, a directive is added to invoke the top
level (see top level/2 in section I.3.5). If several directives are dened in a same module,
they will be executed in the same order as they appear in the Prolog le.
Example:
x.pl
y.pl
z.pl
:- main([y,z]).
:- public odd/1.
:- public p/1.
:- public even/1.
odd(s(X)):- even(X).
p(X):- u(X).
even(0).
:- public q/1.
u(b).
even(s(X)):- odd(X).
q(X):- p(X).
:- write(r).
p(a).
:- write(q1).
:- write(q2).
s(X):- q(X).
:- p(X), write(X).
:- s(X), write(X).
The only exception concerns operator declarations op/3 which are both executed at compile-time and
run-time.
2
ANNEXE I. MANUEL D'UTILISATION DE WAMCC
219
At run-time:
exec directive goal
1 of y
write(q1)
2 of y
write(q2)
output
q1
q2
1 of z
write(r)
r
1 of x
2 of x
3 of x
p(X), write(X)
s(X), write(X)
top level(true,true)
a
b
...
The order in which directives are executed is: directives of y.pl, directives of z.pl
and then directives of x.pl.
In the module x.pl the public predicate p/1 has been redened so the directive p(X),
will print a. However, the directive s(X), write(X) will print b since in
y.pl only the public declaration of p/1 in z.pl is visible.
write(X)
Under the top-level, the query
will succed with X=a. The query q(X)
will succeed with X=b, the query u(X) will fail since only private predicates dened
in x.pl can be called from the top-level. The query even(X) will generate all even
natural numbers through backtraking.
| ?- p(X)
I.2 From Prolog modules to Unix Executables
I.2.1 Compiling Prolog Modules
The wamcc compiler is entirely written in wamcc Prolog (and compiled with wamcc). It
allows the user to compile one or several Prolog Modules. The general syntax of wamcc is
as follows:
wamcc [option | filename]...
Options:
ANNEXE I. MANUEL D'UTILISATION DE WAMCC
-c
-wam
-fast math
-no test stack
-no inline
-dbg
-dbg2
-v
-h
220
produce a .c le
produce a .wam le
do not test types in math expressions
do not test types in math expressions
do not include code to test stack overow
compile for prolog debugging
compile for prolog and wam debugging
verbose mode
display help
Remarks:
if wamcc is invoked without any arguments then a (classical) Prolog top level is called.
by default the compilation proceeds in C mode. When a Prolog Module prog.pl is
compiled in C mode, wamcc generates the following les:
a header le (variable declarations,...)
prog.c the C source le
prog.usr a user le. In this le the user can add his own C code to interface with
Prolog via pragma c/1 inline predicate. This le is generated if it does not exist
otherwise it is left unchanged.
prog.h
With the -wam options, wamcc generates a prog.wam le in a Prolog syntax.
the -fast math option makes it possible to generate faster code since no type checking is done for variables appearing in mathemetic expressions (they are assumed
to contain integers).
the -dbg and -dbg2 options produce additional information for debugging (see also
section I.4).
the -no inline option is useful when debugging since it allows the user to trace inline
predicates. An inline predicate, is a predicate which does not give rise to a classical
Prolog call and thus it is not visible by the debugger. The -no inline option allows
the user to trace calls to inline predicates as well.
ANNEXE I. MANUEL D'UTILISATION DE WAMCC
221
the no test stack is only useful for architecture which cannot test stack overows
by hardware (e.g. Sony Mips, NeXT stations). On these machines, tests are done by
software and are quite expensive. With this option, overows are not checked and
thus the program runs faster. However, overows are not detected.
if the -v option is not specied wamcc runs silently.
wamcc
returns 0 if the compilation has succeeded and 1 otherwise.
I.2.2 Generating Object Files
From the C les generated by wamcc it is possible to obtain an object le using the GNU
C compiler. A shell-script w gcc3 can also is provided t make this compilation. w gcc only
invokes gcc with some necessary appropriate options (like -Ipath...)4 . w gcc can be used
as simple as the C compiler. The following sequence generates a le prog.o from the Prolog
le prog.pl:
%wamcc prog -fast math
%w gcc -c -O2 prog.c
I.2.3 Linking Object Files
From one or several object les prog1 .o, ..., progn .o it is possible to generate an executable
simply by invoking w gcc with these les as follows:
%w gcc -o prog prog1
:o
... progn
:o
-lwamcc
The command will create the executable prog by linking all object les prog[1-n].o. A
library containing the run-time and the built-in predicates must be provided via the option
-llibrary. There are two libraries available libwamcc.a and libwamcc pp.a. The former
is the standard library while the later allows the user to obtaind prole information when
quiting the program.
3
4
the name of this shell script is w C compiler name.
so if wamcc is moved from one directory to another one, w gcc must be edited to update the pathnames.
ANNEXE I. MANUEL D'UTILISATION DE WAMCC
hex2pl
222
and pl2hex Utilities
At compile-time, each predicate gives rise to a C identier which is the hexadecimal representation of the predicate. At linking-time, if a symbol is multiply dened or not dened the
linker will emit a message involving the hexadecimal name of the predicate. Two utilities
are provided to allow the user to translate in both directions Prolog atoms and hexadecimal
representations:
%pl2hex
prolog name (Prolog to hexadecimal)
Example: pl2hex
%hex2pl
append/3
displays X617070656E64 3.
hexa name (hexadecimal to Prolog)
Example: hex2pl
X617070656E64 3
will display append/3.
I.2.4 Stack Overow Messages
When one stack overows, wamcc exits with the following message: \Fatal Error: stack name
stack overow (size:current size Kb, env. variable: env var name)" where stack name is
the name of the stack which has overowed, current size is its actual size in Kbytes and
env var name is the name of the environment variable which is consulted to dene the size
of this stack. You can then (re)dene this variable (e.g. with the Unix setenv command)
and reexecute the program (see also directive :- main in section I.1).
I.2.5 Makele Generator - bmf wamcc Utility
In order to simplify the overall compilation process, it is possible to dene makeles.
A simple program bmf wamcc (Build Make File) provides a way to dene automatically
makeles. The obtained makele can be customized if necessary. The general syntax of
bmf wamcc is as follows:
bmf wamcc [option | filename]...
Options:
ANNEXE I. MANUEL D'UTILISATION DE WAMCC
223
choose file as main module (default: rst module)
use pflags for the wamcc compiler
use pflags for the w gcc compiler (default: -O2)
use pflags for the linker (default: -s)
verbose mode
display help
A filename is a module name (possibly suxed .pl), another object le (.o) or an archive
le (.a).
This command creates a makele main module.mk.
-o
-P
-C
-L
-v
-h
file
pflags
cflags
cflags
For instance, to create the executable x corresponding to the example given in section I.1:
%bmf wamcc x y z -v
This creates the makele x.mk. The following command then (re)creates the executable x:
%make -f x.mk
Each makele generated by bmf wamcc can (re)create a prole executable whose name is
executable name pp5 . For instance the following command will create the executable x pp:
%make -f x.mk x pp
I.3 Built-in Predicates
I.3.1 Input / Output
DEC-10 Prolog File Input/Output
The set of le manipulation predicates is inherited from DEC-10 Prolog. The le
represents the terminal.
see(+File)
The le File becomes the current input.
seeing(?File)
File
5 ... pp
is unied with the name of the current input.
stands for Prolog prole.
user
ANNEXE I. MANUEL D'UTILISATION DE WAMCC
seen
224
Closes the current input and resets it to user.
tell(+File)
The le File becomes the current output.
telling(?File)
File
told
is unied with the name of the current output.
Closes the current output and resets it to user.
Characted Input/Output
nl
A new line is started on the current output.
get0(?N)
is the characted code of the next character read from the current input. On end of
le N is -1.
N
get(?N)
is the characted code of the next character that is not a layout characted read from
the current input.
N
skip(+N)
Skips just past the next character code
arithmetic expression.
put(+N)
The character code
expression.
tab(+N)
N
N
N
from the current input.
is output onto the current output.
N
N
may be an
may be an arithmetic
spaces are output onto the current output. N may be an arithmetic expression.
ANNEXE I. MANUEL D'UTILISATION DE WAMCC
225
Input and Output of Terms
read line(?X)
Reads characters from the current input until a NEWLINE character is read. The
NEWLINE character is discarded and the result is an atom. Fails if the end of the le
is encountered.
read word(?X)
Skips leading separator characters and reads characters from the current input until a
separator character is reached (but not read). Fails if the end of the le is encountered.
read integer(?X)
Skips leading separator characters and reads the next integer from the current input.
Fails if the end of the le is encountered.
read(?Term)
The next term delimited by a full-stop is read from the current input. When the end
of the le is reached, Term is unied with the term end of file.
read term(?Term,+Options)
Same as read/1 with a list of options. Options is a list of :
variables(?Vars)
Vars
is bound to a list of variables of Term.
variable names(?Names)
is bound to a list Name=Var pairs where each Name is an atom indicating
the name of a non-anonymous variable in the term and Var is the corresponding
variable.
Names
singletons(?Names)
is bound to a list Name=Var pairs, one for each non-anonymous variable
only appearing once in the term.
Name
syntax errors(+Val)
controls what action to take on syntax errors. Possible values are : dec10 (the
syntax error is reported and read is repeated), error (an exception is raised),
fail (the error is reported and the read fails), quiet (the read quietly fails).
ANNEXE I. MANUEL D'UTILISATION DE WAMCC
226
write(?Term)
The term Term is written onto the current output according to the current operator
declaration.
write canonical(?Term)
Similar to write(Term) but the term is written according to the standard syntax.
The output can be parsed by read/1.
writeq(?Term)
Similar to write(Term) but the names of atoms ans functors are quoted where necessary.
write term(+Term,+Options)
Same as write/1 with a list of options (Bool is either false or true):
quoted(Bool)
If selected, functors are quoted where necessary to make the result acceptable
as input to read/1.
ignore ops(+Bool)
If selected, Term is written in standard parenthesized notation instead of using
operators.
numbervars(+Bool)
If selected, occurrences of '$VAR'(I) where I is an integer >= 0 are written as
(A + (I mod 26))(I/26). For I=0,... you get the variable names A,B,..., Z, A1,
B1, etc.
max depth(N)
Depth limit on printing. N is an integer. -1 (the default) means no limit.
format(+Format,+Arguments)
Print Arguments onto the current output according to format Format. Format is a
list of formatting characters. format/2 and format/3 is a Prolog interface to the C
stdio function printf(). It is due to Quintus/Sicstus Prolog.
Arguments is a list of items to be printed. If there is only one item it may be supplied
as an atom. If there are no items then an empty list should be supplied.
ANNEXE I. MANUEL D'UTILISATION DE WAMCC
227
The default action on a format character is to print it. The character ~and % introduce
a control sequence. To print a ~or a % repeat it.
The general format of a control sequence is ~NC. The character C determines the type
of the control sequence. N is an optional numeric argument. An alternative form of
N is *. * implies that the next argument in Arguments should be used as a numeric
argument in the control sequence.
The following control sequences are available.
The argument is an atom. The atom is printed without quoting.
~Nc The argument is a number that will be interpreted as a character code. N defaults
to one and is interpreted as the number of times to print the character.
~Nd The argument is an integer. N is interpreted as the number of digits after the
decimal point. If N is 0 or missing, no decimal point will be printed.
~ND The argument is an integer. Identical to ~Nd except that , will separate groups
of three digits to the left of the decimal point.
~Nr The argument is an integer. N is interpreted as a radix. N should be >= 2 and
<= 36. If N is missing the radix defaults to 8. The letters a-z will denote digits
larger than 9.
~NR The argument is an integer. Identical to ~Nr except that the letters A-Z will
denote digits larger than 9.
~Ns The argument is a list of character codes. Exactly N characters will be printed.
N defaults to the length of the string.
~i The argument, which may be of any type, is ignored.
~k The argument, which may be of any type, will be passed to write canonical/1.
~q The argument may be of any type. The argument will be passed to writeq/1.
~w The argument may be of any type. The argument will be passed to write/1.
~~ Takes no argument. Prints ~.
~Nn Takes no argument. Prints N newlines. N defaults to 1.
~? The argument is an atom and is considered as the current format (indirection).
Example:
~a
ANNEXE I. MANUEL D'UTILISATION DE WAMCC
228
format("month: ~?, year: ~?",['~a',january,'~d',1994]).
%F
will print: month: january, year: 1994.
F is a C printf format for integers and atoms (i.e. C integer and C strings).
Example: format("%02d %3.3s %4d",[1,january,1994]).
will print: 01 jan 1994.
formata(+Format,+Arguments)
Like
format/2
format/2).
but
Format
is an atom and
Arguments
must be a list (faster than
pp clause(+Clause)
Pretty-prints the clause Clause onto the current output (used by listing/1).
pp clause(+Head,?Body)
Like pp clause((Head
:- Body)).
I.3.2 Arithmetic
Arithmetic is performed by built-in predicates which take as argument arithmetic expressions and evaluate them. An arithmetic expression is a term built from the numbers,
variables and functors that represent arithmetic functions. When an arithmetic expression
is evaluated, each variable must be bound to an arithmetic expression. However, if you use
the option -fast math then the compiler assumes that each variable will be bound to an
integer and does not check its type.
The range of integers are [-2^28,+2^28-1]. Floats are not supported in this version.
ANNEXE I. MANUEL D'UTILISATION DE WAMCC
+(X)
X
-X
X+Y
X-Y
X*Y
X//Y
X mod Y
X/\Y
X\/Y
X^Y
\(X)
X<<Y
X>>Y
[X]
229
negative of X
sum of X and Y
dierence of X and Y
product of X and Y
integer quotient of X and Y
integer remainder after dividing X by Y
bitwise and of X and Y
bitwise or of X and Y
bitwise exclusive or of X and Y
bitwise not of X
X shifted left by Y places
X shifted right by Y places
a list of one number X evaluates to X
Arithmetic expressions are just Prolog terms. If you want one evaluated you must pass
it as an argument to one of the following built-in (where X and Y stand for arithmetic
expressions and Z for some term).
(inline predicate)
X is evaluated and the value is unied with Z.
Z is X
(inline predicate)
X is equal to Y.
X=:=Y
n (inline predicate)
X= =Y
X
X<Y
(inline predicate)
X is less than Y.
X=<Y
X>Y
is not equal to Y.
(inline predicate)
X is less than or equal to Y.
(inline predicate)
X is greater than Y.
ANNEXE I. MANUEL D'UTILISATION DE WAMCC
X>=Y
230
(inline predicate)
X is greater than or equal to Y.
I.3.3 Term Management
Term Comparison
The predicates make references to a standard total ordering which is as follows:
Variables in standard order (roughly oldest rst).
Integers in numeric order.
Atoms in alphabetic order.
Compound term, ordered rst by the arity, then by the name of the principal functor,
then by the arguments (in left-to-right order). Recall that lists are equivalent to
compound terms with principal ./2.
For the following predicates X and Y are terms.
(inline predicate)
Compares X and Y and unies Op with =, < or >.
compare(?Op,?X,?Y)
X==Y
n
(inline predicate)
X is literally equal to Y.
(inline predicate)
X is not literally equal to Y.
X ==Y
X@<Y
(inline predicate)
X is literally less than Y.
(inline predicate)
X is literally less than or equal to Y.
X@=<Y
ANNEXE I. MANUEL D'UTILISATION DE WAMCC
X@>Y
231
(inline predicate)
X is literally greater than Y.
(inline predicate)
X is literally greater than or equal to Y.
X@>=Y
Some further predicates involving comparison of terms are:
sort(+L1,?L2)
The elements of the list L1 are sorted into the total orderer and any identical elements
are merged yielding the list L2 (complexity: O(N log N ) where N is the length of
L1).
keysort(+L1,?L2)
The list L1 must consist of items of the form Key-Value. These items are sorted into
order according to the value of Key yielding the list L2. No merging takes place and
this predicate is stable (if K-A occurs before K-B then K-A will take place before K-B
in the output). (complexity: O(N log N ) where N is the length of L1).
Constant Processing
There are 3 ways of representing character-string data:
Atoms (e.g. 'Hello
World').
Atoms are stored in the symbol table (a hash-table).
Lists of one-character atoms (e.g. [H,e,l,l,o,'
',w,o,r,l,d]).
Strings (e.g. \Hello World") where a string is a list of numeric codes
(e.g. [72,101,108,108,111,32,87,111,114,108,100]).
atom length(+Atom,?Length)
Length of Atom is Length.
atom concat(?Atom1,?Atom2,+Atom3)
atom concat(+Atom1,+Atom2,-Atom3)
Concatenes Atom1 and Atom2 to give Atom3.
ANNEXE I. MANUEL D'UTILISATION DE WAMCC
232
sub atom(+Atom,?Start,?Length,?Atom1)
The subatom of Atom beginning at the Startth character and Length characters long
is Atom1.
char code(+Char,?Code)
char code(?Char,+Code)
Unies the character Char with its the character code Code.
chars codes(+Chars,?Codes)
chars codes(?Chars,+Codes)
Interconverts the list of chars Chars with the list of corresponding character codes
Codes.
atom codes(+Atom,?Codes)
atom codes(?Atom,+Codes)
Interconverts Atom with the corresponding list of character codes Codes.
atom chars(+Atom,?Chars)
atom chars(?Atom,+Chars)
Interconverts Atom with the corresponding list of characters Chars.
number atom(+Number,?Atom)
number atom(?Number,+Atom)
Interconverts Atom with the corresponding number Number.
number codes(+Number,?Codes)
number codes(?Number,+Codes)
Interconverts Number with the corresponding list of character codes Codes.
number chars(+Number,?Chars)
number chars(?Number,+Chars)
Interconverts Number with the corresponding list of characters Chars.
name(+X,?Codes)
ANNEXE I. MANUEL D'UTILISATION DE WAMCC
233
name(?X,+Codes)
If X is an atom, equivalent to atom codes(X,Codes). If X is a number, equivalent to
number codes(X,Codes). If X is uninstantiated, if Codes can be interpreted as a number X is unied with that number otherwise with the atom whose name corresponds
to Codes.
Term Processing
(inline predicate)
Unies Term1 and Term2.
?Term1=?Term2
functor(+Term,?Name,?Arity)
(inline predicate)
The principal functor of term Term has name Name and arity Arity, where Name is
either an atom or, provided Arity is 0, an integer. Initially, either Term must be
instantiated, or Name and Arity must be instantiated to, respectively, either an atom
and an integer in [0..255] or an atomic term and 0. In the case where Term is initially
uninstantiated, the result of the call is to instantiate Term to the most general term
having the principal functor indicated.
functor(?Term,+Name,+Arity)
(inline predicate)
Initially, ArgNo must be instantiated to a positive integer and Term to a compound
term. The result of the call is to unify Arg with the argument ArgNo of term Term.
The arguments are numbered from 1 upwards.
arg(+ArgNo,+Term,?Arg)
+Term =.. ?List
(inline predicate)
List is a list whose head is the atom corresponding to the principal functor of Term,
and whose tail is a list of the arguments of Term. If Term is uninstantiated, then List
must be instantiated either to a list of determinate length whose head is an atom, or
to a list of length 1 whose head is a number. Note that this predicate is not strictly
necessary, since its functionality can be provided by arg/3 and functor/3, and using
the latter two is usually more ecient.
?Term =.. +List
ANNEXE I. MANUEL D'UTILISATION DE WAMCC
234
copy term(?Term,?CopyOfTerm)
is a renaming of Term, such that brand new variables have been substituted for all variables in Term.
CopyOfTerm
setarg(+ArgNo,+CompoundTerm,?NewArg)
Replaces destructively argument ArgNo in CompoundTerm with NewArg and undoes it
on backtracking. This should only used if there is no further use of the \old" value
of the replaced argument.
numbervars(?Term,+N,?M)
Unies each of the variables in term Term with a special term '$VAR'(i) where i
ranges from N to M-1 (see write/1 or writeq/1). This predicate is used by listing/1.
I.3.4 Test Predicates
The following test the type of the term X:
(inline predicate)
Tests whether X is currently uninstantiated (var is short for variable). An uninstantiated variable is one which has not been bound to anything, except possibly another
uninstantiated variable.
var(?X)
(inline predicate)
Tests whether X is currently instantiated. This is the opposite of var/1.
nonvar(?X)
(inline predicate)
Checks that X is currently instantiated to an atom (i.e. a non-variable term of arity
0, other than a number).
atom(?X)
(inline predicate)
Checks that X is currently instantiated to an integer.
integer(?X)
(inline predicate)
Checks that X is currently instantiated to a number (i.e. an integer).
number(?X)
(inline predicate)
Checks that X is currently instantiated to an atom or number.
atomic(?X)
ANNEXE I. MANUEL D'UTILISATION DE WAMCC
235
(inline predicate)
Checks that X is currently instantiated to a term of arity > 0 i.e. a list or a structure.
compound(?X)
(inline predicate)
Checks that X is currently instantiated to a callable term (i.e. an atom or a compound
term).
callable(?X)
I.3.5 Control
+P , +Q
Prove P and if it succeeds, then prove Q.
+P ; +Q
Prove P or if it fails (or if the continuation fails), prove Q instead of P.
!
n+
The eect of the cut symbol is as follows. When rst encountered as a goal, cut
succeeds immediately. If backtracking should later return to the cut, the eect is to
fail the parent goal, i.e. that goal which matched the head of the clause containing
the cut, and caused the clause to be activated.
+P
If the goal P has a solution, fail, otherwise succeed. This is not real negation (\P is
false"), but a kind of pseudo-negation meaning \P is not provable".
+P -> +Q ; +R
Analogous to \if P then
solution to the goal P.
+P -> +Q
Equivalent to (P
else R" This form of if-then-else only explores the rst
-> Q ; fail).
otherwise
true
Q
These always succeed.
ANNEXE I. MANUEL D'UTILISATION DE WAMCC
236
false
fail
These always fail.
repeat
Generates an innite sequence of backtracking choices.
for(I,A,B)
Generates, on backtracking, values for I ranging from A to B.
call(+Term)
must be instantiated to a term (which would be acceptable as the body of
a clause). The goal call(Term) is then executed exactly as if that term appeared
textually in its place, except that any cut (!) occurring in Term only cuts alternatives
in the execution of Term.
Term
halt(+Status)
halt
Terminates the Prolog process with the status
halt(0).
Status. halt/0
is a shorthand for
halt or else(+Program,+Status)
halt or else(+Program)
Same as halt(Status) if there is a top level else same as call(Program).
abort
Stops the current goal and returns under the top level if exists or exits with the status
1.
catch(+Goal,?Catcher,+Recovery)
throw(?Ball)
calls Goal. If this succeeds or fails, so does the call to catch/3. If however,
during the execution of Goal, there is a call to throw(Ball) (i.e. an exception is
raised), then Ball is copied and the stack is unwound back to the call to catch/3,
whereupon the copy of Ball is unied with Catcher. If this unication succeeds,
catch/3
ANNEXE I. MANUEL D'UTILISATION DE WAMCC
237
then catch/3 calls the goal Recovery (a handler) in order to determine the success
or failure of catch/3. Otherwise, the stack keeps unwinding, looking for an earlier
invocation of catch/3.
I.3.6 List Processing
The following predicates are inspired from the lists library of SICStus Prolog. The following predicates are available:
append(?Prefix,?Suffix,?Combined)
is true when Combined is the combined list of the elements in Prefix followed by
the elements in Suffix. It can be used to form Combined or it can be used to nd
Prefix and/or Suffix from a given Combined.
member(?Element,?List)
is true when Element is a member of List. It may be used to test for membership
in a list, but it can also be used to enumerate all the elements in List.
memberchk(+Element,+List)
is true when Element is a member of List, but memberchk/2 only succeeds once and
can therefore not be used to enumerate the elements in List.
reverse(?List,?Reversed)
is true when Reversed has the same elements as List but in a reversed order.
delete(+List,+Element,?Residue)
is true when Residue is the result of removing all identical occurrences of Element
in List.
select(?Element,?List,?List2)
is true when the result of removing an occurrence of Element in List is List2.
permutation(?List,?Perm)
is true when Perm is a permutation of List.
prefix(?Prefix,?List)
is true when Prefix is a prex of List.
ANNEXE I. MANUEL D'UTILISATION DE WAMCC
238
suffix(?Suffix,?List)
is true when Suffix is a sux of List.
sublist(?Sub,?List)
is true when Sub contains some of the elements of List.
last(?List,?Last)
is true when Last is the last element in List.
length(?List,?Length)
If List is instantiated to a list of determinate length, then Length will be unied
with this length. If List is of indeterminate length and Length is instantiated to an
integer, then List will be unied with a list of length Length. The list elements are
unique variables. If Length is unbound then Length will be unied with all possible
lengths of List.
nth(?N,?List,?Element)
nth/3
1.
is true when Element is the Nth element of List. The rst element is number
max list(+ListOfNumbers,?Max)
is true when Max is the largest of the elements in ListOfNumbers.
min list(+ListOfNumbers,?Min)
is true when Min is the smallest of the numbers in the list ListOfNumbers.
sum list(+ListOfNumbers,?Sum)
is true when Sum is the result of adding the ListOfNumbers together.
I.3.7 Operators
op(+Precedence,+Type,+Name)
Declares the atom Name to be an operator of the stated Type and Precedence. Name
may also be a list of atoms in which case all of them are declared to be operators. If
Precedence is 0 then the operator properties of Name (if any) are cancelled.
ANNEXE I. MANUEL D'UTILISATION DE WAMCC
239
I.3.8 Modication of the Program
allows for dynamic code, i.e. code which can be considered as data. This allows the
user to add and retract clauses dynamically and to consult programs which is very useful
when debugging since this avoid to recompile the code. A dynamic predicate is either a
predicate which has been declared with the directive :- dynamic or a predicate whose
rst clause has been dynamically created (asserted). In this version dynamic code is always
public (can be seen by any module). Note that a static predicate (i.e. compiled predicate)
cannot be redened by a dynamic predicate.
wamcc
For the predicates dened below, the argument Head must be instantiated to an atom or a
compound term. The argument Clause must be instantiated either to a term Head :- Body
or, if the body part is empty, to Head. An empty body part is represented as true.
asserta(+Clause)
The current instance of Clause is interpreted as a clause and is added to the current
interpreted program as the rst clause. The predicate concerned must be currently be
dynamic or undened. Any uninstantiated variables in the Clause will be replaced
by new private variables.
assertz(+Clause)
Like asserta/2, except that the new clause becomes the last clause for the predicate
concerned.
clause(+Head,?Body)
The clause Head :- Body exists in the current interpreted program. The predicate
concerned must currently be dynamic. clause/2 may be used in a non-determinate
fashion, i.e. it will successively nd clauses matching the argument through backtracking.
retract(+Clause)
The rst clause in the current interpreted program that matches Clause is erased. The
predicate concerned must currently be dynamic. retract/1 may be used in a nondeterminate fashion, i.e. it will successively retract clauses matching the argument
through backtracking.
ANNEXE I. MANUEL D'UTILISATION DE WAMCC
240
reinit predicate(+Name/+Arity)
Erase all clauses of the predicate specied by Name/Arity. The predicate denition
is retained.
abolish(+Name/+Arity)
Erase all clauses of the predicate specied by Name/Arity. The predicate denition
is also erased.
listing(+Name/+Arity)
Lists the interpreted predicate(s) specied by Name/Arity Any variables in the listed
clauses are internally bound to ground terms before printing.
consult(+Files)
Consults source les. Files is either the name of a le or a list of lenames. Note
that it is possible to call consult(user) and then enter a clauses directly on the
terminal (ending with ^D).
When a directive is read it is immediately executed. Any predicate dened in the
les erases any clauses for that predicate already present in the interpreter. Recall
that a static predicate cannot be redened by an interpreted predicate.
[File|Files]
shorthand for consult([File|Files]).
I.3.9 All Solutions
When there are many solutions to a problem, and when all those solutions are required to be
collected together, this can be achieved by repeatedly backtracking and gradually building
up a list of the solutions. The following built-in predicates are provided to automate this
process.
setof(?Template,+Goal,?Set)
Read this as \Set is the set of all instances of Template such that Goal is satised, where that set is non-empty". The term Goal species a goal or goals as in
ANNEXE I. MANUEL D'UTILISATION DE WAMCC
241
call(Goal). Set
is a set of terms represented as a list of those terms, without duplicates, in the standard order for terms (see section I.3.3). If there are no instances
of Template such that Goal is satised then the predicate fails.
The variables appearing in the term Template should not appear anywhere else in
the clause except within the term Goal. Obviously, the set to be enumerated should
be nite, and should be enumerable by Prolog in nite time. It is possible for the
provable instances to contain variables, but in this case the list Set will only provide
an imperfect representation of what is in reality an innite set.
If there are uninstantiated variables in Goal which do not also appear in Template,
then a call to this built-in predicate may backtrack, generating alternative values for
Set corresponding to dierent instantiations of the free variables of Goal. (It is to
cater for such usage that the set Set is constrained to be non-empty.) Two instantiations are dierent i no renaming of variables can make them literally identical.
Variables occurring in Goal will not be treated as free if they are explicitly bound
within Goal by an existential quantier. An existential quantication is written Y^Q
meaning \there exists a Y such that Q is true", where Y is some Prolog variable.
bagof(?Template,+Goal,?Bag)
This is exactly the same as setof/3 except that the list (or alternative lists) returned
will not be ordered, and may contain duplicates. The eect of this relaxation is to
save a call to sort/2, which is invoked by setof/3 to return an ordered list.
findall(?Template,+Goal,?Bag)
is a list of instances of Template in all proofs of Goal found by Prolog. The
order of the list corresponds to the order in which the proofs are found. The list may
be empty and all variables are taken as being existentially quantied. This means
that each invocation of findall/3 succeeds exactly once, and that no variables in
Goal get bound. Avoiding the management of universally quantied variables can
save considerable time and space.
Bag
findall(?Template,+Goal,?Bag,?Remainder)
Same as
findall/3,
except that Bag is the list of solution instances appended to
Remainder, which is typically unbound.
ANNEXE I. MANUEL D'UTILISATION DE WAMCC
242
I.3.10 Global Variables
provides a simple and powerful way to assign and read global variables. There are
3 kinds of objects which can be associated to a global variable:
wamcc
a copy of a term,
a link to a term,
an array of objects.
The initial value of a global variable is the integer 0. A global variable is referenced by a
name (i.e. name = an atom) possibly indiced if it is an array (i.e. name = a compound
term). In the following, GVarName represents such a reference to a global variable and its
syntax is as follows:
GVarName ::=
atom
atom(Index,...,Index)
Index
integer
GVarName
::=
When a GVarName is used as an index, the value of this variable must be an integer. Indexes
range from 0 to Size-1 if the array has Size elements.
The space necessary for copies and arrays are allocated dynamically and recovered as soon
as possible. For instance, when an atom is associated to a global variable whose current
value is an array, the space for this array is recovered (unless if the assignment must be
undone when backtracking occurs, see below).
(inline predicate)
Associates a copy of the term Term to GVarName. This assignment is not undone when
backtracking occurs. See below about array (re)denitions.
g assign(+GVarName,+Term)
(inline predicate)
Same as g assign/2 but the assignment is undone when backtraking occurs. See
below about array (re)denitions.
g assignb(+GVarName,+Term)
ANNEXE I. MANUEL D'UTILISATION DE WAMCC
243
(inline predicate)
Makes a link between GVarName to the term Term. This allows the user to give a name
to any Prolog term (in particular non-ground terms). Note that such an assignment
is always undone when backtracking occurs (since the term could no longer exists).
Note also that if Term is an atom or an integer, g link and g assignb have the same
behavior. Finally: g link is not expansive at all neither for the memory nor for the
execution time point of views. See below about array (re)denitions.
g link(+GVarName,+Term)
(inline predicate)
Unies Term with the associated value of GVarName. See below about array readings.
g read(+GVarName,?Term)
(inline predicate)
Unies Size with the dimension (an integer > 0) of the array stored by GVarName.
Fails if GVarName is not an array.
g array size(+GVarName,?Size)
The predicates g assign/2, g assignb/2 and g link/2 dene an array when Term is a
compound term with principal functor g array/1-2. Then an array is assigned to GVarName
(backtrackable assignment or not depending on the predicate used). There are 3 forms for
the term g array/1-2:
g array(+Size)
if Size is an integer > 0 then denes an array of Size elements which are all initialized with the integer 0 w.r.t to the predicate used (g assign/2, g assignb/2 or
g link/2).
g array(+Size,+Term)
As above but the elements are initialized with the term Term instead of 0. Note that
Term can contain other array denitions allowing thus for multi-dimensional arrays.
g array(+ListOfElements)
As above if ListOfElements is a list of length Size except that the elements of the
array are initialized w.r.t the elements of the list ListOfElements (which can contain
other array denitions).
The compound term with principal functor g array extend/1-2 can can be used similarly
to g array/1-2 except that is does not initialize existing elements of the (possibly) previous
ANNEXE I. MANUEL D'UTILISATION DE WAMCC
244
array.
When an array is read, a term of the form g array([Elem0 ,...,ElemSize
1 ])
is returned.
Example: a simple counter:
| ?- [user].
inc(Var,Value):- g_read(Var,Value), X is Value+1, g_assign(Var,X).
^D
yes
| ?- inc(a,X).
X = 0
yes
| ?- inc(a,X).
X = 1
yes
Example: g assign does not undo its assignment at backtracking whereas g assignb undoes it.
| ?-
g_assign(x,1),
(
g_read(x,Old), g_assign(x,2)
;
g_read(x,Old), g_assign(x,3)
).
Old = 1 ? ;
Old = 2
yes
| ?-
% the value 2 has not been undone
g_assign(x,1),
(
g_read(x,Old), g_assignb(x,2)
;
g_read(x,Old), g_assignb(x,3)
).
Old = 1 ? ;
Old = 1
yes
% the value 2 has been undone
ANNEXE I. MANUEL D'UTILISATION DE WAMCC
245
Example: g assign and g assignb create a copy of the term whereas g link does not.
g link can often avoid to pass big data structures (e.g. dictionnaries,...) as arguments of
many predicates.
| ?- g_assign(foo,f(X)), X=12, g_read(foo,Y).
X = 12
Y = f(_60)
yes
| ?- g_link(foo,f(X)), X=12, g_read(foo,Y).
X = 12
Y = f(12)
yes
Example: array denitions.
| ?- g_assign(w,g_array(3)), g_read(w,X).
X = g_array([0,0,0])
| ?- g_assign(w(0),16), g_assign(w(1),32), g_assign(w(2),64),
g_read(w,X).
X = g_array([16,32,64])
yes
| ?- g_assign(k,g_array([16,32,64])), g_read(k,X).
X = g_array([16,32,64])
yes
| ?- g_assign(k,g_array(3,null)), g_read(k,X).
X = g_array([null,null,null])
yes
Example: array extension.
| ?- g_assign(a,g_array([10,20,30])), g_read(a,X).
X = g_array([10,20,30])
% simpler
ANNEXE I. MANUEL D'UTILISATION DE WAMCC
246
yes
| ?- g_assign(a,g_array_extend(5,null)), g_read(a,X).
X = g_array([10,20,30,null,null])
yes
| ?- g_assign(a,g_array([10,20,30])), g_read(a,X).
X = g_array([10,20,30])
yes
| ?- g_assign(a,g_array_extend([1,2,3,4,5,6])),
g_read(a,X).
X = g_array([10,20,30,4,5,6])
yes
Example: 2-D array denition.
| ?- g_assign(w,g_array(2,g_array(3))), g_read(w,X).
X = g_array([g_array([0,0,0]),g_array([0,0,0])])
yes
| ?- (
for(I,0,1), for(J,0,2), K is I*3+J, g_assign(w(I,J),K),
fail
;
g_read(w,X)
).
X = g_array([g_array([0,1,2]),g_array([3,4,5])])
yes
| ?- g_read(w(1),X).
X = g_array([3,4,5])
yes
Example: hybrid array.
| ?- g_assign(w,g_array([1,2,g_array([a,b,c]),g_array(2,z),5])),
g_read(w,X).
X = g_array([1,2,g_array([a,b,c]),g_array([z,z]),5])
yes
| ?- g_read(w(1),X), g_read(w(2,1),Y), g_read(w(3,1),Z).
X = 2
Y = b
ANNEXE I. MANUEL D'UTILISATION DE WAMCC
247
Z = z
yes
| ?- g_read(w(1,2),X).
Error: Illegal array index <2> for <w>
I.3.11 Miscellaneous
(inline predicate)
Inserts at compile-time the C code Code in the resulting C le. The use of this
predicates requires a good knowledge of the underlying Prolog engine6 .
pragma c(+Code)
statistics
Displays on the terminal statistics relating to memory usage and run time.
statistics(?Key,?Value)
This allows a program to gather various execution statistics. For each of the possible
keys Key, Value is unied with a list of values, as follows:
stack name
runtime
systime
[Size used,Size free] in bytes
stack name : local, global, trail
[Since start,Since last] in ms
[Since start,Since last] in ms
cputime(?T)
similar to statistics(runtime,[T|
]).
version
Displays the introductory banner.
top level(+BannerBool,+CatchBool)
invokes a (sub) top level. BannerBool is true or false and indicates if the introductory banner must be displayed at the invocation. CatchBool indicates if the exceptions raised by throw/1 which are not captured must be captured by top level (which
simply write the Ball sent by throw/1 between curly brackets). If CatchBool is false
6
do not hesitate to contact the author for more low-level information.
ANNEXE I. MANUEL D'UTILISATION DE WAMCC
248
then the (sub) top level ends, the exception is still raised and should be captured by
an other handler. The global variable '$top level' counts the number of nested top
levels actually alive (can be used to test if a top level is active).
gensym(?X)
gensym(+Prefix,+X)
Generates an atom of the form Prefixk where k is the current value of the global
variable Prefix (so it must be an integer). This value is then incremented for the
next call to gensym. if Prefix is omitted then '$sym' is used.
compiler name(?X)
Unies X with the name of the compiler.
wam version(?X)
Unies X with the current version.
wam year(?X)
Unies X with the year of the current version.
argc(?X)
Unies X with the number of Unix arguments (of the command-line).
argv(+N,X)
Unies X with the Nth Unix argument (starting at 0). (see also Unix(argv(L))).
Unix(+Term)
Allows certain interactions with the operating system. Under Unix the possible forms
of Term are as follows:
access(+Path,+Mode)
Tests if Mode is the accessability of Path as in the C-function access(2).
argv(?Args)
Args
cd
is unied with a list of atoms of the program arguments.
Changes the current working directory to the home directory.
ANNEXE I. MANUEL D'UTILISATION DE WAMCC
249
cd(+Path)
Changes the current working directory to Path.
exit(+Status)
Terminates the Prolog process with the status Status. (Equivalent to halt/1).
getenv(+Name,?Value)
Unies Value with the value of the environment variable Name.
shell
Starts a new interactive Unix shell named in the Unix environment variable
SHELL. The control is returned to Prolog upon termination of the shell.
shell(+Command)
Passes
to a new Unix shell named in the Unix environment variable
SHELL for execution.
Command
shell(+Command,?Status)
Passes
to a new Unix shell named in the Unix environment variable
SHELL for execution. Unies Status with the returned status of Command.
Command
system(+Command)
Passes Command to a new Unix sh process for execution.
system(+Command,?Status)
Passes Command to a new Unix sh process for execution. Unies
the returned status of Command.
Status
with
I.4 Debugger
The debugger is based on the procedure box model as described in Chapter eight of Programming in Prolog by W.F. Clocksin and C.S. Mellish (Springer-Verlag, 1981) which is
recommended as an introduction. The proposed debug options are similar to those provided by SICStus or Quintus. The debugger can be used for interpreted code (i.e. dynamic
predicates) or for compiled code (i.e. static predicates) compiled with the -dbg option. The
wam debugger is only available for static code compiled with the -dbg2 option. The basic
built-in predicates to control the debugger are as follows
ANNEXE I. MANUEL D'UTILISATION DE WAMCC
250
debug
Switches the debugger on (showing spy-points).
nodebug
Switches the debugger o.
debugging
Prints onto the terminal information about the current debugging state.
trace
Switches the debugger on (showing everything).
leash(+Mode)
Leashing Mode is set to Mode. Mode is a list whose elements can be call, exit, fail
or redo.
notrace
Equivalent to nodebug/0.
spy +Name/+Arity
Sets a spy-point on the predicate whose principal functor is Name and arity is Arity.
nospy +Name/+Arity
Removes the spy-point from the predicate whose principal functor is Name and arity
is Arity.
nospyall
Removes all spy-points that have been set.
During the debugging, the trace messages look like:
S I J Port: Goal ?
where S is a spy-point indicator and is + if there is a spy-point on the predicate Goal (or else
S is ' '). N is an invocation number. This unique number can be used to cross correlate the
trace messages for the various ports, since it is unique for every invocation. M is an indice
number which represents the number of direct ancestors this goal has. Port species the
ANNEXE I. MANUEL D'UTILISATION DE WAMCC
251
particular port (call, exit, fail, redo). Goal is the current goal. The ? indicates that
you should type in one of the following debug commands7 :
creep
or RET
Single-steps to the very next port.
skip <n>
Skips over the execution of predicates called by the current goal. If you specify an
invocation number (less or greater than the current one) then the execution continues
until the goal whose indice number is n is reached.
leap
Resumes running your program, only stopping when a spy-point is reached.
abort
Aborts the current execution.
goals
or goalsb
Prints the list of ancestors to the current goal. goalsb also prints the remainding
choice-points.
leash <l>...
Sets the leashing mode to
(similar to leash/1).
nobebug
l1 ... lk
where each
li
is
call, exit, fail
or
redo
or notrace
Switches the debugger o.
=
Prints onto the terminal information about the current debugging state (similar to
debugging/0).
+ <pred/arity>
Sets a spy-point on the current goal or on the goal whose principal functor is pred
and arity arity (similar to spy/1).
7
only the rst character(s) of the commands are required, and <
x >
denotes an optional element.
ANNEXE I. MANUEL D'UTILISATION DE WAMCC
252
- <pred/arity>
Removes the spy-point from the current goal or from the goal whose principal functor
is pred and arity arity (similar to nospy/1).
< <n>
Sets the printdepth limit to n or resets it to 10 if n is not specied.
exact
In this mode all failures are traced.
noexact
In this mode failures occuring when unifying the head are not traced (like in SICStus/Quitus).
help
Displays a summarize of the options displayed above.
There are also some low-level (i.e. WAM level) commands (only available for static code
compiled with the -dbg2 option):
write adr <n>
Uses write/1 to print n Prolog terms starting at adr.
data adr <n>
Displays (dump) n words starting at adr.
modify adr <n>
Displays (dump) and makes it possible to modify n words starting at adr.
where sadr
Displays the real address corresponding to sadr.
deref adr
Displays the dereferenced word located at adr.
envir <sadr>
Diplays the current environment or the one located at sadr.
ANNEXE I. MANUEL D'UTILISATION DE WAMCC
253
backtrack <sadr>
Diplays the current choice point or the one located at sadr.
An address (adr) has the following syntax: bank name < [n] >. A stack address has the
following syntax: stack name < [n] >. bank name can be one of the following name and
n is an optional oset specier (integer):
bank name ::=
reg
x
y
stack name
stack name::=
local
global
trail
WAM general registers
WAM temporaries
current permanent variables
a stack
local stack
global stack
trail stack
Annexe J
Manuel d'utilisation de clp(FD)
clp(FD) 2.21
User's Manual
Daniel Diaz
INRIA-Rocquencourt
Domaine de Voluceau
78153 Le Chesnay
FRANCE
Daniel.Diaz@inria.fr
July 1994
This manual only concerns the nite domain constraint facilities.
Refer to wamcc User's manual for information about the underlying
Prolog engine.
254
ANNEXE J. MANUEL D'UTILISATION DE CLP(FD)
255
J.1 Introduction
is based on the wamcc Prolog compiler and extends it with Finite Domain (FD)
constraints. It is recommended to read the wamcc User's Manual [21] which explains how
to use the underlying Prolog language (built-in predicates, compilation process,...). In this
manual some executable names have changed for clp(FD). The folowing table shows the
correspondance between old (i.e. wamcc) names and new ones (i.e. clp(FD)):
clp(FD)
Executable
Prolog compiler
Gcc compiler
Build Makele
Library
Prole library
wamcc
names
clp(FD)
names
wamcc
clp fd
w gcc
fd gcc
bmf wamcc
bmf clp fd
libwamcc.a
libclp fd.a
libwamcc pp.a
libclp fd pp.a
Some papers [24, 25, 26, 27, 28, 17] presents clp(FD) and its extensions. Basically, clp(FD)
deals with only one basic constraint X in r (see section J.3.1). X is a nite domain
variable and r denotes a range, which can be not only a constant range, e.g. 1::10 but also
an indexical range using:
min(Y ) which represents the minimal value of Y (in the current store),
max(Y ) which represents the maximal value of Y ,
val(Y ) which represents the denitive value of Y ,
dom(Y ) which represents the whole domain of Y .
From the basic X in r constraints, it is possible to dene high-level constraints, called user
constraints, as Prolog predicates. Each constraint species how the constrained variable
must be updated when the domains of other variables change. In the clp(FD) system,
basic user constraints are already dened as built-in predicates (see section J.3). CHIP-like
constraints such as equations, inequations and disequations can be used directly by the
programmer. A preprocessor will translate them at compile time. So, clp(FD) oers the
usual constraints over nite domains as proposed by CHIP together with the possibility to
dene new constraints in a declarative way.
ANNEXE J. MANUEL D'UTILISATION DE CLP(FD)
256
J.2 Finite Domain variables
A new type of data is introduced: FD variables which can take a value in its domain
(reduced step by step by X in r constraints). An FD variable is fully compatible with
Prolog integers and Prolog variables. Namely, each time a FD variable is expected in
a constraint (i.e. in X in r and other user constraints) it is possible to pass a Prolog
integer (treated as a singleton range) or a Prolog variable (bound to an initial range
0::infinity). Since domains are nite, infinity stands for the greatest integer (see also
fd infinity/1). Since Prolog variables and FD variables are fully compatible, no domain
declarations are needed. However, in some cases this can cause a failure due to overows
(e.g. infinity infinity). In particular intermediate variables do not need any domain
declaration as it is required in CHIP.
There are 2 representations for an FD variable:
interval representation: only the min and the max of the variable are maintained.
In this representation it is possible to store values included in 0::infinity.
sparse representation: an additional bit-vector is used to store the set of possible
values for a variable. In this representation it is possible to store values included
in 0::vector max. By default vector max is set to 127 and can be redened via an
environment variable VECTORMAX or via the built-in predicate fd vector max/1 (see
section J.3).
The initial representation for an FD variable X is always an interval representation and
is switched to a sparse representation when a \hole" appears in the domain (e.g. due to
union, complementation,...)1 . When this switching occurs some values can be lost since
vector max is less than infinity. We say that \X is extra constrained" since X is constrained by the solver to the domain 0::vector max. A ag extra cstr is associated to each
FD variable to indicate if some values have been lost and is updated by all operations.
An \extra constrained" FD variable is written followed by the @ symbol. When a failure
occurs on a variable extra constrained a message Warning: Vector too small - maybe
lost solutions is displayed.
As soon as a variable uses a sparse representation it will not switch back to an interval representation
even if there are no longer holes in its domain.
1
ANNEXE J. MANUEL D'UTILISATION DE CLP(FD)
257
Example (vector max = 127):
Constraint on X
Domain of X
X in 0..512
0..512
;
off
X in 0..3:10..512
0..3:10..127
128..512
on
X in 0..100
0..3:10..100
Lost values Extra Cstr Flag
;
off
In this example, when the constraint X in 0::3 : 10::512 is told some solutions are lost.
However, when constraint X in 0::100 is told, no longer values are lost.
Other example:
Constraint on X
Domain of X
X in 0..512
0..512
;
off
X in 0..3:10..512
0..3:10..127
128..512
on
;
Lost values Extra Cstr Flag
Warning ... on
In this example, the constraint X in 256::300 fails due to the lost of 128::512 so a message
is displayed onto the terminal. The solution would consist in dening:
X in 256..300
%setenv VECTORMAX 512
Finally, note that bit-vectors are not dynamic, i.e. all vectors must have the same size
(0::vector max). So the use of fd vector max/1 is limited to the initial denition of vector
sizes and must occur before any constraint.
J.3 Finite Domain built-in predicates / constraints
J.3.1 The constraint
X
in
r
?X in +R
enforces X to belong to one element of the range denoted by R. The syntax of X
is given by the following table:
in
r
ANNEXE J. MANUEL D'UTILISATION DE CLP(FD)
c ::= X
in
r
(constraint)
r ::= t1 ..t2
ftg
R
dom(Y )
r1 : r2
r1 & r2
-r
r + ct
r - ct
r * ct
r / ct
r mod ct
r1 + r2
r1 - r2
r1 * r2
r1 / r2
r1 mod r2
fr (a1 ,:::,ak )
(interval range)
(singleton range)
(range parameter)
(indexical domain)
(union)
(intersection)
(complementation)
(range by term addition)
(range by term subtraction)
(range by term multiplication)
(range by term division)
(range by term modulo)
(range by range addition)
(range by range subtraction)
(range by range multiplication)
(range by range division)
(range by range modulo)
(user range function)
a ::= r j t
(user function argument)
t ::=
258
Y
(indexical min)
Y
(indexical max)
Y
(delayed value)
ct j t t j t1-t2 j t1 *t2 j t1 /<t2 j t1 />t2
f a ::: ak ) (user term function)
min( )
max( )
val( )
1+ 2
(
,
t 1 ,
ct ::= C
nj
infinity
(term parameter)
j ct1 +ct2 j ct1 -ct2 j ct1*ct2 j ct1 /<ct2 j ct1 />ct2
J.3.2 Linear arithmetic constraints
A linear term is of the for A1 X1 + ::: + An Xn where each Ai must be an integer
and can be omitted if it is 1. Each X1 is a variable, an FD variable or an integer (i.e. a
constant). + denotes either the plus symbol + or the minus symbol . In the following
S and T are linear terms.
ANNEXE J. MANUEL D'UTILISATION DE CLP(FD)
S#=T
S
n
S# =T
is equal to T.
S
is not equal to T.
S
is less than T.
S#<T
S#<=T
S
is less than or equal to T.
S
is greater than T.
S#>T
S#>=T
S
is greater than or equal to T.
J.3.3 Other arithmetic constraints
'min(x,y)=z'(?X,?Y,?Z)
Z
is the minimum value between X and Y.
'max(x,y)=z'(?X,?Y,?Z)
Z
is the maximum value between X and Y.
'|x-y|=z'(?X,?Y,?Z)
Z
is the absolute value of X-Y.
'xx=y'(?X,?Y)
Y
is the square of X.
'xy=z'(?X,?Y,?Z)
Z
is equal to X*Y (i.e. non-linear equation).
259
ANNEXE J. MANUEL D'UTILISATION DE CLP(FD)
260
J.3.4 Domain Handling
domain(+Vars,+Lower,+Upper)
constraints each variable of the list Vars to belong to the domain Lower..Upper.
fd vector max(?N)
if N is a variable, unies N to the maximum value which can be stored in a bit-vector
representation. If N is an integer, dene the maximum value (such a denition can
only be done once before stating any constraint (see section J.2).
fd infinity(?N)
Unies N with the infinity (i.e. greatest) value.
fd var(?X)
Succeeds if X is bound to an FD variable.
fd min(?X,?N)
Unies N with the current minimum value of the FD variable X. Note that this is not
a constraint.
fd max(?X,?N)
Unies N with the current maximum value of the FD variable X.
fd dom(?X,?L)
Unies L with the current domain of the FD variable X. L is a list of integers.
fd size(?X,?N)
Unies N with the current size of the domain of the FD variable X.
fd extra cstr(?X,?F)
Unies F with the current extra constraint ag (i.e. 0/1) of the FD variable X (see
section J.2).
fd has vector(?X)
Succeeds if X is an FD variable (not an integer) which uses a bit-vector representation.
fd use vector(?X)
Enforces the FD variable X to use a bit-vector representation.
ANNEXE J. MANUEL D'UTILISATION DE CLP(FD)
261
J.3.5 Enumeration predicates
indomain(?X)
assignes a consistent value to the FD variable X from the minimum of
backtracking, all possible values can be enumerated).
X
(trough
labeling(+L)
assignes a value for each FD variable of the list L using indomain/1.
labelingff(+L)
assignes a value for each FD variable of the list L using the rst-fail heuristics.
deleteff(?X,+L,?Rest)
Unies X with the FD variable with the smallest domain among the FD variables in
the list L. Also unies Rest with the list of remainding FD variables except X.
J.3.6 Symbolic constraints
alldifferent(+L)
enforces the constraint X 6= Y, for each pair of variable X,Y in the list of FD variables
L.
element(?I,+L,?V)
the Ith element of the list of integers L must be equal to the value V. I and V are FD
variables.
atmost(+N,+L,+V)
at most N variables of the list of FD variables L are equal to the value V. N and V are
integers.
relation(+Tuples,+Vars)
enforces the list of FD variables Vars to verify the relation coded by Tuples. Tuples
is a list of tuples of the relation, each tuple is a list of integers. Example:
and(X,Y,Z):- relation([[0,0,0],[0,1,0],[1,0,0],[1,1,1]],[X,Y,Z]).
relationc(+CTuples,+Vars)
similar to
relation/2
but the tuples are given column by column (faster than
ANNEXE J. MANUEL D'UTILISATION DE CLP(FD)
relation/2).
262
Example:
and(X,Y,Z):- relationc([[0,0,1,1],[0,1,0,1],[0,0,0,1]],[X,Y,Z]).
J.3.7 Symbolic constraints
minof(+Goal,?Var)
uses a depth-rst branch and bound to nd the minimum optimal value of Var using
Goal as generator (e.g. labeling/1).
maxof(+Goal,?Var)
uses a depth-rst branch and bound to nd the maximum optimal value of Var using
Goal as generator (e.g. labeling/1).
J.4 Boolean built-in predicates / constraints
oers a set of boolean constraints based on Finite Domains. A boolean variable is
nothing more than a FD variable with an initial domain 0::1. So arc-consistency is also used
for booleans and thus the enumeration phase is required as for traditional FD constraints.
No declarations are needed for boolean variables. When a varialble is involved in a boolean
constraint it is automatically set to the initial domain 0::1.
clp(FD)
J.4.1 Basic boolean constraints
not(?X,?Y)
true if X = :Y .
and(?X,?Y,?Z)
true if Z = X ^ Y .
and0(?X,?Y)
true if 0 = X ^ Y (i.e. :X _ :Y ).
and0(?X,?Y,?Z)
true if 0 = X ^ Y ^ Z (i.e. :X _ :Y _ :Z ).
ANNEXE J. MANUEL D'UTILISATION DE CLP(FD)
or(?X,?Y,?Z)
true if Z = X _ Y .
or1(?X,?Y)
true if 1 = X _ Y (i.e. X _ Y ).
or1(?X,?Y,?Z)
true if 1 = X _ Y _ Z (i.e. X _ Y _ Z ).
xor(?X,?Y,?Z)
true if Z = X xor Y .
equiv(?X,?Y,?Z)
true if Z = X , Y .
equiv1(?X,?Y)
true if 1 = X , Y (i.e. X , Y ).
J.4.2 Symbolic boolean constraints
at least one(+L)
true if at least one boolean variable of the list L is equal to 1.
at most one(+L)
true if at most one boolean variable of the list L is equal to 1.
only one(+L)
true if only one boolean variable of the list L is equal to 1.
263
Bibliographie
[1] A. Aggoun and N. Beldiceanu. Time Stamps Techniques for the Trailed Data in CLP
Systems. In Actes du Seminaire 1990 - Programmation en Logique, Tregastel, France,
CNET 1990.
[2] A. Aggoun and N. Beldiceanu. Overview of the CHIP Compiler System. In 8th
International Conference on Logic Programming, Paris, France, MIT Press, 1991. Also
in Constraint Logic Programming: Selected Research, A. Colmerauer and F. Benhamou
(Eds.). MIT Press, 1993.
[3] H. At-Kaci. Warren's Abstract Machine, A Tutorial Reconstruction. Logic Programming Series, MIT Press, 1991.
[4] F. Benhamou. Boolean Algorithms in PrologIII. In Constraint Logic Programming:
Selected Research, A. Colmerauer and F. Benhamou (Eds.). MIT Press, 1993.
[5] H. Bennaceur and G. Plateau. FASTLI: An Exact Algorithm for the Constraint Satisfaction Problem: Application to Logical Inference. Research Report, LIPN, Universite
Paris-Nord, Paris, France, 1991.
[6] H. Bennaceur and G. Plateau. Logical Inference Problem in Variables 0/1. in IFORS
93 Conference, Lisboa, Portugal, 1993.
[7] BNR-Prolog User's Manual. Bell Northern Research. Ottawa, Canada, 1988.
[8] A. Bockmayr. Logic Programming with Pseudo-Boolean Constraints. Research Report
MPI-I-91-227, Max Planck Institut, Saarbrucken, Germany, 1991.
[9] M. Bonnard, S. Manchon, and P. Planchon. Bilan des etudes de la division AOC sur
la regulation du trac aerien, 1992.
264
BIBLIOGRAPHIE
265
[10] S. Manchon, D. Chemla, C. Gobier, and P. Kerlirzin. Dossier de specications du
Systeme Pretactique pour Optimiser la Regulation du Trac aerien: SPORT V4.3,
1992.
[11] M. Bruynooghe. An Interpreter for Predicate Logic Programs: Basic Principles. Research Report cw10, Katholieke Universiteit Leuven, Belgium, 1976.
[12] M. Bruynooghe. The Memory Management of Prolog Implemantations. in Workshop'80, pp12-20, 1980.
[13] R.E. Bryant. Graph Based Algorithms for Boolean Function Manipulation. IEEE
Transactions on computers, no. 35 (8), 1986, pp 677{691.
[14] W. Buttner and H. Simonis. Embedding Boolean Expressions into Logic Programming. Journal of Symbolic Computation, no. 4 (1987), pp 191-205.
[15] M. Carlsson. Design and Implementation of an Or-Parallel Prolog Engine. PhD
dissertation, SICS, Sweden, 1990.
[16] B. Carlson, M. Carlsson. Constraint Solving and Entailment Algorithms for cc(FD).
Research Report, SICS, Sweden, 1993.
[17] B. Carlsson, M. Carlsson, D. Diaz. Entailment of Finite Domain Constraints. In 11th
International Conference on Logic Programming, Santa Margherita, Italy, MIT Press,
1994.
[18] D. Chemla, D. Diaz, P. Kerlirzin and S. Manchon. Using clp(FD) to Support Air Trafc Flow Management. In 3rd International Conference on the Practical Application
of Prolog, Paris, France, 1995.
[19] T. Chikayama, T. Fujise and D. Sekita. A portable and Ecient Implementation of
KL1. in ICOT/NSF Workshop on Parallel Logic Programming and its Programming
Environments, CIS-TR-94-04, Department of Computer Information Science, Oregon,
1994.
[20] P. Codognet, F. Fages and T. Sola. A metalevel compiler for CLP(FD) and its combination with intelligent backtracking. In Constraint Logic Programming: Selected Research, A. Colmerauer and F. Benhamou (Eds.). MIT Press, 1993.
BIBLIOGRAPHIE
266
[21] D. Diaz.
wamcc
Prolog Compiler User's Manual. INRIA, Le Chesnay, France, 1994.
[22] D. Diaz.
clp(FD)
User's Manual. INRIA, Le Chesnay, France, 1994.
[23] P. Codognet and D. Diaz. wamcc: Compiling Prolog to C. In 12th International
Conference on Logic Programming, Tokyo, Japan, MIT Press, 1995.
[24] P. Codognet and D. Diaz. A Minimal Extension of the WAM for clp(FD). In 10th International Conference on Logic Programming, Budapest, Hungary, MIT Press, 1993.
[25] P. Codognet and D. Diaz. Compiling Constraint in clp(FD). To appear in Journal of
Logic Programming.
[26] P. Codognet and D. Diaz. Boolean Constraint Solving Using clp(FD). In International
Logic Programming Symposium, Vancouver, British Columbia, Canada, MIT Press,
1993.
[27] P. Codognet and D. Diaz. clp(B): Combining Simplicity and Eciency in Boolean
Constraint Solving. In Programming Language Implementation and Logic Programming Madrid, Spain, Springer-Verlag, 1994.
[28] P. Codognet and D. Diaz. A Simple and Ecient Boolean Solver for Constraint Logic
Programming. To appear in Journal of Automated Reasoning.
[29] P. Codognet and D. Diaz. Finite Domain Constraints in Constraint Logic Programming. In 14th European Conference on Operational Research, Jerusalem, Israel, 1995.
[30] D. Colin de Verdiere. Utilisation des techniques de recherche operationnelle pour les
etudes Air Trac Management, 1992.
[31] A. Colmerauer. An introduction to Prolog-III. Communications of the ACM, 33 (7),
July 1990.
[32] Vtor Santos Costa, D. H. D. Warren, and Rong Yang. The Andorra-I engine: A
parallel implementation of the basic Andorra model. In 8th International Conference
on Logic Programming, Paris, France, MIT Press, 1991.
[33] M. Dincbas, H. Simonis and P. Van Hentenryck. Solving the Car-Sequencing Problem
in Constraint Logic Programming. In ECAI-88, Munich, W. Germany, August 1988.
BIBLIOGRAPHIE
267
[34] M. Dincbas, H. Simonis and P. Van Hentenryck. Solving large combinatorial problems
in Logic Programming. Journal of Logic Programming, 8 (1,2), 1990.
[35] G. Dore and P. Codognet. A Prototype Compiler for Prolog with Boolean Constraints.
In GULP'93, Italian Conference on Logic Programming, Gizzeria Lido, Italy, 1993.
[36] G. Gallo, G. Urbani, Algorithms for Testing the Satisability of Propositional Formulae. Journal of Logic Programming, no. 7 (1989), pp 45-61.
[37] J.M. Garot. Airspace Management in Europe: issues and solutions. In IFORS 1993:
13th International Conference of Operational Research, Lisbon, Portugal, 1993.
[38] D. Gudeman. Representing Type Information in Dynamically Typed Languages. Technical Report, University of Arizona, Arizona, 1993.
[39] D. Gudeman, K. De Bosschere and S. Debray. jc: An Ecient and Portable Sequential
Implementation of Janus. In Joint International Conference and Symposium on Logic
Programming, Washington, MIT Press, 1992.
[40] R. M. Haralick and G. L. Elliot. Increasing tree search eciency for constraint satisfaction problems. Articial Intelligence 14 (1980), pp 263-313
[41] S. Haridi and S. Janson. Kernel Andorra Prolog and its computation model. In 7th
International Conference on Logic Programming, Jerusalem, Israel, MIT Press, 1990.
[42] B. Haussman. Turbo Erlang: Approaching the Speed of C. In Implementations of
Logic Programming Systems, Evan Tick (ed.), Kluwer 1994.
[43] J. N. Hooker and C. Fedjki. Branch-and-Cut Solution of Inference Problems in Propositional Logic. Research Report, Carnegie-Mellon University Pittsurh, Pennsylvania,
1987.
[44] J. Jaar and J-L. Lassez. Constraint Logic Programming. In Principles Of Programming Languages, Munich, Germany, January 1987.
[45] J. Jaar and S. Michaylov. A Methodology for Managing Hard Constraints in CLP
Systems. In proceedings of Sigplan PLDI, Toronto, Canada, ACM Press 1991.
[46] J. Jaar, S. Michaylov, P. J. Stuckey and R. Yap. An Abstract Machine for CLP(R).
In proceedings of Sigplan PLDI, San Francisco, ACM Press 1992.
BIBLIOGRAPHIE
268
[47] J. Jourdan. Modelisation of terminal zone aircraft sequencing in constraint logic
programming, 1992.
[48] J. Jourdan and T. Sola. The Versatility of Handling Disjunctions as Constraints In
Programming Language Implementation and Logic Programming, Talin, Estonia, 1993.
[49] A. K. Mackworth. Consistency in Networks of Relations. Articial Intelligence 8
(1977), pp 99-118.
[50] U. Martin and T. Nipkow. Boolean Unication { The story so far. Journal of Symbolic
Computation, no. 7 (1989), pp 191-205.
[51] J-L. Massat. Using Local Consistency Techniques to Solve Boolean Constraints. In
Constraint Logic Programming: Selected Research, A. Colmerauer and F. Benhamou
(Eds.). MIT Press, 1993.
[52] C.S. Mellish. An alternative to Structure-Sharing in Logic Programming edited by
K.L. Clark and S.A. Tarnlund, Academic Press, pp99-106, 1982.
[53] B. A. Nadel. Constraint Satisfaction Algorithms. Computational Intelligence 5 (1989),
pp 188-224.
[54] W.J. Older and F. Benhamou. Programming in clp(BNR). In Position Papers of 1st
PPCP, Newport, Rhode Island, 1993.
[55] L. M. Pereira and A. Porto. Intelligent backtracking and sidetracking in horn clause
programs. Technical Report CIUNL 2/79, Universitade Nova de Lisboa, 1979.
[56] A. Rauzy. L'Evaluation Semantique en Calcul Propositionnel. PhD thesis, Universite
Aix-Marseille II, Marseille, France, January 1989.
[57] A. Rauzy. Adia. Technical Report, LaBRI, Universite Bordeaux I, 1991.
[58] A. Rauzy. Using Enumerative Methods for Boolean Unication. In Constraint Logic
Programming: Selected Research, A. Colmerauer and F. Benhamou (Eds.). MIT Press,
1993.
[59] A. Rauzy. Some Practical Results on the SAT Problem. Draft, 1993.
BIBLIOGRAPHIE
269
[60] V.A. Saraswat. Concurrent Constraint Programming Languages. PhD thesis, Research
Report CMU-CS-89-108, Carnegie-Mellon University, 1989. Also (revised) MIT Press,
1993.
[61] V. A. Saraswat. Concurrent Constraint Programming, MIT Press, 1993.
[62] T. Solla. PhD thesis (forthcoming), THOMSON-CSF, France, 1994.
[63] V. Saraswat. The Category of Constraint Systems is Cartesian-Closed. In Logic In
Computer Science, IEEE Press 1992.
[64] D. S. Scott. Domains for Denotational Semantics. In ICALP'82, International Colloquium on Automata Languages and Programming, 1982.
[65] H. Simonis, M. Dincbas. Propositional Calculus Problems in CHIP. ECRC, Technical
Report TR-LP-48, 1990.
[66] T. E. Uribe and M. E. Stickel. Ordered Binary Decision Diagrams and the DavisPutnam Procedure. In CCL'94, Constraints in Computational Logics, Munich, Germany, Springer-Verlag, 1994.
[67] P. Van Hentenryck. Constraint Satisfaction in Logic Programming. Logic Programming Series, MIT Press, 1989.
[68] P. Van Hentenryck and Y. Deville. The Cardinality Operator: A new Logical Connective for Constraint Logic Programming. In 8th International Conference on Logic
Programming, Paris, France, MIT Press, 1991.
[69] P. Van Hentenryck, V. Saraswat and Y. Deville. Constraint processing in cc(FD).
Draft, 1991.
[70] P. Van Hentenryck, V. Saraswat and Y. Deville. Design, Implementation and Evaluation of the Constraint language cc(FD). Draft, 1993.
[71] P. Van Hentenryck, Y. Deville and C-M. Teng. A generic arc-consistency algorithm
and its specializations. Articial Intelligence 57 (1992), pp 291-321.
[72] P. Van Hentenryck, H. Simonis and M. Dincbas. Constraint Satisfaction Using Constraint Logic Programming. Articial Intelligence no 58, pp 113-159, 1992.
BIBLIOGRAPHIE
270
[73] P. Van Roy. Can Logic Programming run as fast as Imperative Programming ? Report
No UCB/CSD90/600, Berkeley, California, 1990.
[74] P. Van Roy and A. Despain. High-Performance Logic Programming with the Aquarius
Prolog Compiler. IEEE Computer, pp 54-67, 1992.
[75] D. H. D. Warren. An Abstract Prolog Instruction Set. Technical Report 309, SRI
International, Oct. 1983.
[76] D. H. D. Warren. The Andorra Principle. Internal Report, Gigalips Group, 1987.
Des contraintes na^t la beaute
Leonard de Vinci.
L'erreur est la regle ;
la verite est l'accident de l'erreur.
Georges Duhamel.
Il y a assez de lumiere pour ceux qui ne desirent que de voir,
et assez d'obscurite pour ceux qui ont une disposition contraire.
Blaise Pascal.
Resume
Ce travail porte sur la compilation des langages de programmation logique par contraintes
sur les domaines nis (DF). Plut^ot que d'adopter l'approche usuelle considerant le resolveur comme une \bo^te noire" nous avons choisi l'approche \bo^te de verre" de P. van
Hentenryck. Dans celle-ci, le resolveur gerer une seule contrainte primitive. Toutes les contraintes complexes (equations, contraintes symboliques,...) sont traduites en des appels de
contraintes primitives. Le resolveur est ainsi simple et homogene. De plus, l'utilisateur peut
denir ses propres contraintes en termes de cette primitive. Cette primitive nous permet
de denir une machine abstraite pour la compilation des contraintes DF. En outre, le traitement d'une seule primitive permet de denir des optimisations globales dont benecient
toutes les contraintes de haut niveau. Toutes ces idees sont detaillees et aboutissent a la
denition du langage clp(FD). L'etude des performances de clp(FD) montre que cette
approche est tres ecace, meilleure en tout cas que les resolveurs bo^tes noires. Nous etudions egalement les aptitudes de clp(FD) a resoudre des contraintes booleennes car elles
sont un cas particulier des DF. La encore clp(FD) se compare tres bien avec des resolveurs
specialises. Nous nous interessons enn a la detection de la satisfaction des contraintes
pour permettre a l'utilisateur de specier des calculs diriges par les donnees (plut^ot que
par les instructions). Ce travail debouche donc tout naturellement sur l'implantation des
langages concurrents
Mots-cles :
Programmation Logique, Prolog, implantation, contraintes, domaines nis, booleens, langages concurrents, Intelligence Articielle.
Was this manual useful for you? yes no
Thank you for your participation!

* Your assessment is very important for improving the work of artificial intelligence, which forms the content of this project

Download PDF

advertising