File: gretl_hlp_it.txt

package info (click to toggle)
gretl 1.3.3-1
  • links: PTS
  • area: main
  • in suites: sarge
  • size: 20,544 kB
  • ctags: 11,029
  • sloc: ansic: 156,263; xml: 31,443; sh: 8,558; makefile: 1,749; lisp: 1,120; perl: 911
file content (1697 lines) | stat: -rw-r--r-- 76,258 bytes parent folder | download | duplicates (2)
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
108
109
110
111
112
113
114
115
116
117
118
119
120
121
122
123
124
125
126
127
128
129
130
131
132
133
134
135
136
137
138
139
140
141
142
143
144
145
146
147
148
149
150
151
152
153
154
155
156
157
158
159
160
161
162
163
164
165
166
167
168
169
170
171
172
173
174
175
176
177
178
179
180
181
182
183
184
185
186
187
188
189
190
191
192
193
194
195
196
197
198
199
200
201
202
203
204
205
206
207
208
209
210
211
212
213
214
215
216
217
218
219
220
221
222
223
224
225
226
227
228
229
230
231
232
233
234
235
236
237
238
239
240
241
242
243
244
245
246
247
248
249
250
251
252
253
254
255
256
257
258
259
260
261
262
263
264
265
266
267
268
269
270
271
272
273
274
275
276
277
278
279
280
281
282
283
284
285
286
287
288
289
290
291
292
293
294
295
296
297
298
299
300
301
302
303
304
305
306
307
308
309
310
311
312
313
314
315
316
317
318
319
320
321
322
323
324
325
326
327
328
329
330
331
332
333
334
335
336
337
338
339
340
341
342
343
344
345
346
347
348
349
350
351
352
353
354
355
356
357
358
359
360
361
362
363
364
365
366
367
368
369
370
371
372
373
374
375
376
377
378
379
380
381
382
383
384
385
386
387
388
389
390
391
392
393
394
395
396
397
398
399
400
401
402
403
404
405
406
407
408
409
410
411
412
413
414
415
416
417
418
419
420
421
422
423
424
425
426
427
428
429
430
431
432
433
434
435
436
437
438
439
440
441
442
443
444
445
446
447
448
449
450
451
452
453
454
455
456
457
458
459
460
461
462
463
464
465
466
467
468
469
470
471
472
473
474
475
476
477
478
479
480
481
482
483
484
485
486
487
488
489
490
491
492
493
494
495
496
497
498
499
500
501
502
503
504
505
506
507
508
509
510
511
512
513
514
515
516
517
518
519
520
521
522
523
524
525
526
527
528
529
530
531
532
533
534
535
536
537
538
539
540
541
542
543
544
545
546
547
548
549
550
551
552
553
554
555
556
557
558
559
560
561
562
563
564
565
566
567
568
569
570
571
572
573
574
575
576
577
578
579
580
581
582
583
584
585
586
587
588
589
590
591
592
593
594
595
596
597
598
599
600
601
602
603
604
605
606
607
608
609
610
611
612
613
614
615
616
617
618
619
620
621
622
623
624
625
626
627
628
629
630
631
632
633
634
635
636
637
638
639
640
641
642
643
644
645
646
647
648
649
650
651
652
653
654
655
656
657
658
659
660
661
662
663
664
665
666
667
668
669
670
671
672
673
674
675
676
677
678
679
680
681
682
683
684
685
686
687
688
689
690
691
692
693
694
695
696
697
698
699
700
701
702
703
704
705
706
707
708
709
710
711
712
713
714
715
716
717
718
719
720
721
722
723
724
725
726
727
728
729
730
731
732
733
734
735
736
737
738
739
740
741
742
743
744
745
746
747
748
749
750
751
752
753
754
755
756
757
758
759
760
761
762
763
764
765
766
767
768
769
770
771
772
773
774
775
776
777
778
779
780
781
782
783
784
785
786
787
788
789
790
791
792
793
794
795
796
797
798
799
800
801
802
803
804
805
806
807
808
809
810
811
812
813
814
815
816
817
818
819
820
821
822
823
824
825
826
827
828
829
830
831
832
833
834
835
836
837
838
839
840
841
842
843
844
845
846
847
848
849
850
851
852
853
854
855
856
857
858
859
860
861
862
863
864
865
866
867
868
869
870
871
872
873
874
875
876
877
878
879
880
881
882
883
884
885
886
887
888
889
890
891
892
893
894
895
896
897
898
899
900
901
902
903
904
905
906
907
908
909
910
911
912
913
914
915
916
917
918
919
920
921
922
923
924
925
926
927
928
929
930
931
932
933
934
935
936
937
938
939
940
941
942
943
944
945
946
947
948
949
950
951
952
953
954
955
956
957
958
959
960
961
962
963
964
965
966
967
968
969
970
971
972
973
974
975
976
977
978
979
980
981
982
983
984
985
986
987
988
989
990
991
992
993
994
995
996
997
998
999
1000
1001
1002
1003
1004
1005
1006
1007
1008
1009
1010
1011
1012
1013
1014
1015
1016
1017
1018
1019
1020
1021
1022
1023
1024
1025
1026
1027
1028
1029
1030
1031
1032
1033
1034
1035
1036
1037
1038
1039
1040
1041
1042
1043
1044
1045
1046
1047
1048
1049
1050
1051
1052
1053
1054
1055
1056
1057
1058
1059
1060
1061
1062
1063
1064
1065
1066
1067
1068
1069
1070
1071
1072
1073
1074
1075
1076
1077
1078
1079
1080
1081
1082
1083
1084
1085
1086
1087
1088
1089
1090
1091
1092
1093
1094
1095
1096
1097
1098
1099
1100
1101
1102
1103
1104
1105
1106
1107
1108
1109
1110
1111
1112
1113
1114
1115
1116
1117
1118
1119
1120
1121
1122
1123
1124
1125
1126
1127
1128
1129
1130
1131
1132
1133
1134
1135
1136
1137
1138
1139
1140
1141
1142
1143
1144
1145
1146
1147
1148
1149
1150
1151
1152
1153
1154
1155
1156
1157
1158
1159
1160
1161
1162
1163
1164
1165
1166
1167
1168
1169
1170
1171
1172
1173
1174
1175
1176
1177
1178
1179
1180
1181
1182
1183
1184
1185
1186
1187
1188
1189
1190
1191
1192
1193
1194
1195
1196
1197
1198
1199
1200
1201
1202
1203
1204
1205
1206
1207
1208
1209
1210
1211
1212
1213
1214
1215
1216
1217
1218
1219
1220
1221
1222
1223
1224
1225
1226
1227
1228
1229
1230
1231
1232
1233
1234
1235
1236
1237
1238
1239
1240
1241
1242
1243
1244
1245
1246
1247
1248
1249
1250
1251
1252
1253
1254
1255
1256
1257
1258
1259
1260
1261
1262
1263
1264
1265
1266
1267
1268
1269
1270
1271
1272
1273
1274
1275
1276
1277
1278
1279
1280
1281
1282
1283
1284
1285
1286
1287
1288
1289
1290
1291
1292
1293
1294
1295
1296
1297
1298
1299
1300
1301
1302
1303
1304
1305
1306
1307
1308
1309
1310
1311
1312
1313
1314
1315
1316
1317
1318
1319
1320
1321
1322
1323
1324
1325
1326
1327
1328
1329
1330
1331
1332
1333
1334
1335
1336
1337
1338
1339
1340
1341
1342
1343
1344
1345
1346
1347
1348
1349
1350
1351
1352
1353
1354
1355
1356
1357
1358
1359
1360
1361
1362
1363
1364
1365
1366
1367
1368
1369
1370
1371
1372
1373
1374
1375
1376
1377
1378
1379
1380
1381
1382
1383
1384
1385
1386
1387
1388
1389
1390
1391
1392
1393
1394
1395
1396
1397
1398
1399
1400
1401
1402
1403
1404
1405
1406
1407
1408
1409
1410
1411
1412
1413
1414
1415
1416
1417
1418
1419
1420
1421
1422
1423
1424
1425
1426
1427
1428
1429
1430
1431
1432
1433
1434
1435
1436
1437
1438
1439
1440
1441
1442
1443
1444
1445
1446
1447
1448
1449
1450
1451
1452
1453
1454
1455
1456
1457
1458
1459
1460
1461
1462
1463
1464
1465
1466
1467
1468
1469
1470
1471
1472
1473
1474
1475
1476
1477
1478
1479
1480
1481
1482
1483
1484
1485
1486
1487
1488
1489
1490
1491
1492
1493
1494
1495
1496
1497
1498
1499
1500
1501
1502
1503
1504
1505
1506
1507
1508
1509
1510
1511
1512
1513
1514
1515
1516
1517
1518
1519
1520
1521
1522
1523
1524
1525
1526
1527
1528
1529
1530
1531
1532
1533
1534
1535
1536
1537
1538
1539
1540
1541
1542
1543
1544
1545
1546
1547
1548
1549
1550
1551
1552
1553
1554
1555
1556
1557
1558
1559
1560
1561
1562
1563
1564
1565
1566
1567
1568
1569
1570
1571
1572
1573
1574
1575
1576
1577
1578
1579
1580
1581
1582
1583
1584
1585
1586
1587
1588
1589
1590
1591
1592
1593
1594
1595
1596
1597
1598
1599
1600
1601
1602
1603
1604
1605
1606
1607
1608
1609
1610
1611
1612
1613
1614
1615
1616
1617
1618
1619
1620
1621
1622
1623
1624
1625
1626
1627
1628
1629
1630
1631
1632
1633
1634
1635
1636
1637
1638
1639
1640
1641
1642
1643
1644
1645
1646
1647
1648
1649
1650
1651
1652
1653
1654
1655
1656
1657
1658
1659
1660
1661
1662
1663
1664
1665
1666
1667
1668
1669
1670
1671
1672
1673
1674
1675
1676
1677
1678
1679
1680
1681
1682
1683
1684
1685
1686
1687
1688
1689
1690
1691
1692
1693
1694
1695
1696
1697
@new-style gretl.hlp

# add Tests "Test per le variabili aggiunte"

Aggiunge le variabili selezionate al modello precedente e stima il nuovo
modello. Se si aggiunge più di una variabile, verrà mostrata la statistica F
e il suo p-value per le nuove variabili (solo per la procedura OLS). Un
p-value inferiore 0.05 significa che i coefficienti sono congiuntamente
significativi al livello del 5 per cento.

Accesso dal menù: Finestra del modello, /Test/ADD - Aggiungi variabili

Comando script: add

# adf Tests "Test Dickey-Fuller aumentato"

Questo comando richiede un ordine di ritardo intero; se si indica un ordine
zero, viene eseguito un test Dickey-Fuller standard (non aumentato).

Calcola le statistiche per un gruppo di test Dickey-Fuller sulla variabile
specificata, assumendo come ipotesi nulla che la variabile abbia una radice
unitaria.

Per impostazione predefinita, vengono mostrate tre varianti del test: una
basata su una regressione che contiene solo una costante, una che include la
costante e un trend lineare, una che usa la costante e un trend quadratico.
È possibile controllare le tre varianti specificando una o più opzioni.

In tutti i casi, la variabile dipendente è la differenza prima della
variabile specificata, y, e la variabile dipendente più importante è il
ritardo (di ordine uno) di y. Il modello è costruito in modo che il
coefficiente della variabile ritardata y è pari a 1 meno la radice. Ad
esempio, il modello con una costante può essere scritto come

  (1 - L)y(t) = b0 + (1-a)y(t-1) + e(t)

Se l'ordine di ritardi, k, è maggiore di 0, ai regressori di ognuna delle
regressioni calcolate per il test saranno aggiunti k ritardi della variabile
dipendente.

Se l'ordine di ritardi, k, è maggiore di 0, ai regressori di ognuna delle
regressioni calcolate per il test saranno aggiunti k ritardi della variabile
dipendente, a meno che venga selezionata la casella "test per il ritardo
massimo"; in questo caso, l'ordine selezionato verrà considerato come ordine
massimo, e l'ordine da usare effettivamente sarà ricavato applicando la
seguente procedura di test "all'indietro":

1. Stima la regressione Dickey-Fuller con k ritardi della variabile
   dipendente.

2. Se questo ordine di ritardi è significativo, esegue il test con l'ordine
   di ritardo k. Altrimenti, prova il test con k = k - 1; se k = 0, esegue
   il test con ordine di ritardo 0, altrimenti va al punto 1.

Durante il punto 2 spiegato sopra, "significativo" significa che la
statistica t per l'ultimo ritardo abbia un p-value asintotico a due code per
la distribuzione normale pari a 0.10 o inferiore.

I p-value per questo test sono basati su MacKinnon (1996). Il codice
rilevante è incluso per gentile concessione dell'autore.

Accesso dal menù: /Variabile/Test Dickey-Fuller aumentato

Comando script: adf

# ar Estimation "Stima autoregressiva"

Calcola le stime parametriche usando la procedura iterativa generalizzata di
Cochrane-Orcutt (si veda il Capitolo 9.5 di Ramanathan). La procedura
termina quando le somme dei quadrati degli errori consecutivi non
differiscono per più dello 0.005 per cento, oppure dopo 20 iterazioni.

La "lista dei ritardi AR" specifica la struttura del processo dell'errore.
Ad esempio, l'indicazione "1 3 4" corrisponde al processo:

  u(t) = rho1*u(t-1) + rho3+u(t-3) + rho4*u(t-4)

Accesso dal menù: /Modello/Serie storiche/AR - Stima autoregressiva

Comando script: ar

# arch Tests "Test ARCH"

Questo comando richiede un ordine di ritardo intero.

Testa il modello per l'eteroschedasticità condizionale autoregressiva (ARCH:
Autoregressive Conditional Heteroskedasticity) dell'ordine specificato. Se
la statistica del test LM ha un p-value inferiore a 0.10, viene anche
effettuata la stima ARCH. Se la varianza prevista di qualche osservazione
nella regressione ausiliaria non risulta positiva, viene usato il
corrispondente residuo al quadrato. Viene quindi calcolata la stima con i
minimi quadrati ponderati sul modello originale.

Si veda anche "garch".

Accesso dal menù: Finestra del modello, /Test/ARCH

Comando script: arch

# arma Estimation "Stima ARMA"

Se è selezionato dal menù Variabile, stima un modello autoregressivo a media
mobile univariato (ARMA: Autoregressive, Moving Average). Se è selezionato
dal menù Modello ("ARMAX"), stima un modello ARMAX, che contiene in più dei
regressori esogeni.

Il funzionamento predefinito utilizza la funzione ARMA "interna" di gretl;
nel caso di un modello ARMA univariato, è anche possibile usare X-12-ARIMA
(se è stato installato il pacchetto X-12-ARIMA per gretl).

L'algoritmo interno di gretl per ARMA è in gran parte dovuto a Riccardo
"Jack" Lucchetti: utilizza una procedura di massima verosimiglianza
condizionale, implementata attraverso la stima iterata con minimi quadrati
della regressione del prodotto esterno del gradiente (OPG). Si veda l'il
manuale di gretl per la logica della procedura. I coefficienti AR (e quelli
per gli eventuali regressori aggiuntivi) sono inizializzati usando una
auto-regressione OLS, mentre i coefficienti MA sono inizializzati a zero.

Il valore AIC mostrato nei modelli ARMA è calcolato secondo la definizione
usata in X-12-ARIMA, ossia

  AIC = -2L + 2k

dove L è la log-verosimiglianza e k è il numero totale di parametri stimati.
Il valore di "frequenza" mostrato insieme alle radici AR e MA è il valore di
lambda che risolve

  z = r * exp(i*2*pi*lambda)

dove z è la radice in questione e r è il suo modulo.

Accesso dal menù: /Variabile/Modello ARMA, /Modello/Serie Storiche/ARMAX
Accesso alternativo: Menù pop-up nella finestra principale (selezione singola)

Comando script: arma

# boxplot Graphs "Grafici boxplot"

Questo tipo di grafici (da Tukey e Chambers) mostra la distribuzione di una
variabile. La "scatola" centrale (box) racchiude il 50 per cento centrale
dei dati, ossia è delimitato dal primo e terzo quartile. I "baffi"
(whiskers) si estendono fino ai valori minimo e massimo. Una linea
trasversale sulla scatola indica la mediana.

Nel caso dei grafici a tacca ("notches"), una tacca indica i limiti
dell'intervallo di confidenza approssimato al 90 per cento per la mediana,
ottenuto col metodo bootstrap.

Dopo ogni variabile specificata nel comando boxplot, è possibile aggiungere
un'espressione booleana tra parentesi per limitare il campione per la
variabile in questione. Occorre inserire uno spazio tra il nome o il numero
della variabile e l'espressione. Si supponga di avere dati sui salari di
uomini e donne e di avere una variabile dummy GENERE che vale 1 per gli
uomini e 0 per le donne. In questo caso, è possibile generare dei boxplot
comparativi usando la seguente riga nella finestra di dialogo dei boxplot:

	salario (GENERE=1) salario (GENERE=0)

Alcuni dettagli del funzionamento dei boxplot di gretl possono essere
controllati attraverso un file testuale chiamato .boxplotrc. Per ulteriori
dettagli, si veda il manuale di gretl.

Accesso dal menù: /Dati/Grafico delle variabili/Boxplot

Comando script: boxplot

# chow Tests "Chow"

Questo comando richiede un numero di osservazione (o una data, se il dataset
lo consente).

Va eseguito dopo una regressione OLS. Crea una variabile dummy che vale 1 a
partire dal punto di rottura specificato da osservazione fino alla fine del
campione, 0 altrove; inoltre crea dei termini di interazione tra questa
dummy e le variabili indipendenti originali, stima una regressione che
include questi termini e calcola una statistica F, prendendo la regressione
aumentata come non vincolata e la regressione originale come vincolata. La
statistica è appropriata per testare l'ipotesi nulla che non esista un break
strutturale in corrispondenza del punto di rottura specificato.

Accesso dal menù: Finestra del modello, /Test/CHOW

Comando script: chow

# coeffsum Tests "Test sulla somma dei coefficienti"

Questo comando richiede una lista di variabili, selezionate tra le variabili
indipendenti di un modello.

Calcola la somma dei coefficienti delle variabili nella lista e mostra
l'errore standard e il p-value per l'ipotesi nulla che la somma sia zero.

Si noti la differenza tra questo test e "omit", che assume come ipotesi
nulla l'uguaglianza a zero di tutti i coefficienti di un gruppo di variabili
indipendenti.

Accesso dal menù: Finestra del modello, /Test/Somma dei coefficienti

Comando script: coeffsum

# coint Tests "Test di cointegrazione di Engle-Granger"

Il test di cointegrazione di Engle-Granger svolge dei test Dickey-Fuller
aumentati sull'ipotesi nulla che ognuna delle variabili elencate abbia una
radice unitaria, usando l'ordine di ritardi specificato. Viene stimata la
regressione di cointegrazione e viene eseguito un test ADF sui residui di
questa regressione, mostrando anche la statistica di Durbin-Watson per la
regressione di cointegrazione.

I pvalue per questo test si basano su MacKinnon (1996). Il codice relativo è
stato incluso per gentile concessione dell'autore.

Accesso dal menù: /Modello/Serie storiche/Test di cointegrazione/Engle-Granger

Comando script: coint

# coint2 Tests "Test di cointegrazione di Johansen"

Esegue il test traccia di Johansen per la cointegrazione tra le variabili
elencate per l'ordine specificato. I valori critici sono calcolati con
l'approssimazione gamma di J. Doornik's (Doornik, 1998). Per i dettagli su
questo test, si veda Hamilton, Time Series Analysis (1994), Cap. 20.

La tabella seguente fornisce un esempio di interpretazione dei risultati del
test nel caso di 3 variabili. H0 denota l'ipotesi nulla, H1 l'ipotesi
alternativa e c il numero delle relazioni di cointegrazione.

                 Rango    Test traccia       Test Lmax
                          H0     H1          H0     H1
                 ---------------------------------------
                  0      c = 0  c = 3       c = 0  c = 1
                  1      c = 1  c = 3       c = 1  c = 2
                  2      c = 2  c = 3       c = 2  c = 3
                 ---------------------------------------

Accesso dal menù: /Modello/Serie storiche/Test do cointegrazione/Johansen

Comando script: coint2

# compact Dataset "Compattamento dei dati"

Quando viene aggiunta a un dataset una serie di frequenza maggiore, occorre
"compattare" la nuova serie. Ad esempio, una serie mensile deve essere
compattata per adattarsi a un dataset trimestrale.

Inoltre, a volte può essere necessario compattare un intero dataset
abbassandone la frequenza (ad esempio, prima di aggiungere al dataset una
variabile a frequenza minore).

Ci sono quattro opzioni per il compattamento:

  Media: i nuovi valori saranno la media aritmetica dei corrispondenti
  valori della serie a frequenza maggiore. Ad esempio, il valore per il
  primo trimestre del 1990 sarà la media dei valori di gennaio, febbraio e
  marzo del 1990.

  Somma: i nuovi valori saranno la somma dei corrispondenti valori della
  serie a frequenza maggiore. Ad esempio, il valore per il primo trimestre
  sarà la somma dei valori di gennaio, febbraio e marzo.

  Valori di fine periodo: il nuovo valore è l'ultimo valore corrispondente
  nella serie a frequenza maggiore. Ad esempio, il valore del primo
  trimestre del 1990 sarà quello del marzo 1990.

  Valori di inizio periodo: il nuovo valore è il primo valore corrispondente
  nella serie a frequenza maggiore. Ad esempio, il valore del primo
  trimestre del 1990 sarà quello del gennaio 1990.

Se si compatta un intero dataset, il metodo di compattamento scelto diventa
quello predefinito, ma se si è scelto un metodo di compattamento per una
certa variabile (nel menù "Variabile/Modifica attributi") viene usato quel
metodo al posto di quello predefinito. Se il metodo di compattamento è già
stato scelto per tutte le variabili, non viene presentata la scelta per il
metodo di compattamento predefinito.

# corc Estimation "Stima Cochrane-Orcutt"

Calcola le stime dei parametri usando la procedura iterativa di
Cochrane-Orcutt (si veda il Capitolo 9.4 di Ramanathan). La procedura si
ferma quando le stime consecutive del coefficiente di autocorrelazione
differiscono per meno di 0.001, oppure dopo 20 iterazioni.

Accesso dal menù: /Modello/Serie storiche/Cochrane-Orcutt

Comando script: corc

# corrgm Statistics "Correlogramma"

Mostra i valori della funzione di autocorrelazione per la variabile
specificata (dal nome o dal numero). Si veda Ramanathan, Capitolo 11.7. È
definita come rho(u(t), u(t-s)) dove ut è la t-esima osservazione della
variabile u e s è il numero dei ritardi.

Vengono mostrate anche le autocorrelazioni parziali, ossia al netto
dell'effetto dei ritardi intermedi. Il comando produce anche un grafico del
correlogramma e mostra la statistica Q di Box-Pierce per testare l'ipotesi
nulla che la serie sia "white noise" (priva di autocorrelazione). La
statistica si distribuisce asintoticamente come chi-quadro con gradi di
libertà pari al numero di ritardi specificati.

Se viene specificato un valore max-ritardo, la lunghezza del correlogramma
viene limitata al numero di ritardi specificato, altrimenti viene scelta
automaticamente.

Accesso dal menù: /Variabile/Correlogramma
Accesso alternativo: Menù pop-up nella finestra principale (selezione singola)

Comando script: corrgm

# cusum Tests "Test CUSUM"

Va eseguito dopo la stima di un modello OLS. Esegue il test CUSUM per la
stabilità dei parametri. Viene calcolata una serie di errori di previsione
(scalati) per il periodo successivo, attraverso una serie di regressioni: la
prima usa le prime k osservazioni e viene usata per generare la previsione
della variabile dipendente per l'osservazione k + 1; la seconda usa le prime
k + 1 osservazioni per generare una previsione per l'osservazione k + 2 e
così via (dove k è il numero dei parametri nel modello originale). Viene
mostrata, anche graficamente, la somma cumulata degli errori scalati di
previsione. L'ipotesi nulla della stabilità dei parametri è rifiutata al
livello di significatività del 5 per cento se la somma cumulata va al di
fuori delle bande di confidenza al 95 per cento.

Viene mostrata anche la statistica t di Harvey-Collier per testare l'ipotesi
nulla della stabilità dei parametri. Si veda il Capitolo 7 di Econometric
Analysis di Greene, per i dettagli.

Accesso dal menù: Finestra del modello, /Test/CUSUM

Comando script: cusum

# density Statistics "Stima kernel di densità"

La stima kernel di densità avviene definendo un insieme di punti di
riferimento distanziati in modo uniforme su un appropriato intervallo dei
dati, e attribuendo ad ognuno di essi un valore di densità basato sui valori
delle osservazioni circostanti.

La formula usata per calcolare la densità stimata in ognuno dei punti di
riferimento x è

	f(x) = (1/nh) sum(t=1 to n) k((x - x(t)) / h)

dove n denota il numero delle osservazioni, h è un parametro di "larghezza
di banda" e k() è la funzione kernel. All'aumentare del parametro di banda,
aumenta il livellamento della densità stimata.

È possibile usare un kernel Gaussiano (la densità normale standard) o il
kernel di Epanechnikov, mentre la larghezza di banda predefinita è quella
suggerita da Silverman (1986), ossia

	h = 0.9 min(s, IQR/1.349) n^{1/5}

dove s denota la deviazione standard dei dati e IQR denota il range
interquartile. È possibile allargare o restringere la banda usando il
"fattore di aggiustamento della banda": la banda effettivamente utilizzata
si ottiene moltiplicando il valore di Silverman per il fattore di
aggiustamento.

Per una buona discussione introduttiva della stima kernel, si veda il
capitolo 15 di Econometric Theory and Methods di Davidson e MacKinnon.

# dialog Estimation "Finestra di dialogo Modello"

Per selezionare la variabile dipendente, fare clic su una variabile nella
lista di sinistra e premere il pulsante "Scegli" con la freccia che punta
verso il riquadro della variabile dipendente. Selezionando la casella
"Imposta come predefinito", la variabile scelta verrà sempre pre-selezionata
come variabile dipendente durante le prossime aperture della finestra di
dialogo. Trucco: facendo doppio clic su una variabile sulla sinistra, viene
selezionata come variabile dipendente e impostata come scelta predefinita.

Per selezionare le variabili indipendenti, fare clic su di esse nella lista
di sinistra e premere il pulsante "Aggiungi" (o fare clic col pulsante
destro del mouse). È possibile selezionare più variabili contigue
trascinando il mouse; se le variabili da selezionare non sono contigue,
occorre fare clic tenendo prenuto il tasto Ctrl.

# export Dataset "Esportazione dei dati"

È possibile esportare dati in formato separato da virgole (CSV:
Comma-Separated Values), in modo che possano essere aperti con fogli
elettronici e molti altri programmi applicativi.

È anche possibile esportare i dati nei formati specifici di GNU R o GNU
octave. Per ulteriori informazioni in questi programmi (entrambi utili per
l'analisi statistica avanzata) si vedano i rispettivi siti web:
http://www.r-project.org/ e http://www.octave.org/

# factorized Graphs "Grafici X-Y con fattore"

Questo comando richiede che si selezionino tre variabili, l'ultima delle
quali deve essere una variabile dummy (con valori 1 o 0). La variabile Y è
rappresentata rispetto alla variabile X, con i punti colorati diversamente a
seconda del valore della terza variabile.

Esempio: si hanno dati sui salari e il livello di scolarità per un campione
di persone; si dispone anche di una variabile dummy che vale 1 per gli
uomini e 2 per le donne (come nel file data7-2 di Ramanathan). Un "Grafico
X-Y con fattore" di WAGE rispetto a EDUC usando la dummy GENDER mostrerà le
osservazioni che si riferiscono agli uomini in un colore e quelle delle
donne in un altro (insieme a una legenda per identificarli).

# fcasterr Prediction "Previsioni con errori standard"

Dopo aver stimato un modello OLS è possibile usare questo comando per
rappresentare i valori stimati su un intervallo di osservazioni specificato,
insieme agli errori standard stimati per queste previsioni e agli intervalli
di confidenza al 95 per cento.

Gli errori standard sono calcolati nel modo descritto da Wooldridge nel
capitolo 6 del suo Introductory Econometrics. Incorporano due fonti di
variabilità: la varianza associata al valore atteso della variabile
dipendente, condizionale ai valori dati delle variabili indipendenti, e la
varianza dei residui della regressione.

Accesso dal menù: Finestra del modello, /Dati modello/Previsioni con errori standard

Comando script: fcasterr

# garch Estimation "Stima GARCH"

Stima un modello GARCH (Generalized Autoregressive Conditional
Heteroskedasticity) univariato, o, se sono specificate delle
variabili-indipendenti, includendo delle variabili esogene. L'equazione
della varianza condizionale è la seguente:

  h(t) = a(0) + somma (i da 1 a q) a(i)*u(t-i) +  somma(j da 1 a p) b(j)*h(t-j)

L'algoritmo GARCH usato da gretl è in pratica quello di Fiorentini,
Calzolari e Panattoni (1996), usato per gentile concessione del Professor
Fiorentini.

Sono disponibili varie stime della matrice di covarianza dei coefficienti.
Il metodo predefinito è quello dell'Hessiana, a meno di non selezionare la
casella "Errori standard robusti", nel qual caso viene usata la matrice di
covarianza QML (White). Altre possibilità (ad es. la matrice di
informazione, o lo stimatore di Bollerslev-Wooldridge) possono essere
specificate con il comando "set".

Accesso dal menù: /Modello/Serie storiche/GARCH

Comando script: garch

# genr Dataset "Generazione di una nuova variabile"

Crea nuove variabili, di solito per mezzo di trasformazioni di variabili
esistenti. Si veda anche "diff", "logs", "lags", "ldiff", "multiply" e
"square" per le scorciatoie.

Gli operatori aritmetici supportati sono, in ordine di precedenza: ^
(esponenziale); *, / e % (modulo o resto); + e -.

Gli operatori Booleani disponibili sono (ancora in ordine di precedenza): !
(negazione), & (AND logico), | (OR logico), >, <, =, >= (maggiore o uguale),
<= (minore o uguale) e != (disuguale). Gli operatori Booleani possono essere
usati per costuire variabili dummy: ad esempio (x > 10) produce 1 se x > 10,
0 altrimenti.

Le funzioni supportate appartengono ai gruppi seguenti:

  Funzioni matematiche standard: abs, cos, exp, int (parte intera), ln
  (logaritmo naturale: log è un sinonimo), sin, sqrt (radice quadrata).

  Funzioni statistiche: max (valore massimo in una serie), min (minimo),
  mean (media aritmetica), median, var (varianza) sd (deviazione standard),
  sst (somma dei quadrati delle deviazioni dalla media), sum, cov
  (covarianza), corr (coefficiente di correlazione), pvalue, sort, cum
  (somma cumulata), cnorm (funzione di ripartizione normale standard), dnorm
  (funzione di densità normale standard), resample (ricampiona una serie con
  rimpiazzo, utile per il bootstrap), hpfilt (filtro di Hodrick-Prescott:
  produce la componente di "ciclo" della serie), bkfilt (filtro passa-banda
  di Baxter-King).

  Funzioni per serie storiche: diff (differenza prima), ldiff
  (log-differenza, ossia la differenza prima dei logaritmi naturali). Per
  generare ritardi della variabile x, si può usare la sintassi "x(-N)", dove
  N rappresenta la lunghezza del ritardo desiderato; per generare anticipi
  si usi "x(+N)".

  Funzioni dataset: misszero (sostituisce con zero il codice delle
  osservazioni mancanti in una serie); zeromiss (l'operazione inversa di
  misszero); nobs (riporta il numero di osservazioni valide in una data
  serie); missing (per ogni osservazione, vale 1 se l'argomento ha un valore
  mancante, 0 altrimenti); ok (l'opposto di missing).

  Numeri pseudo-casuali: uniform, normal.

Tutte le funzioni viste sopra, con l'eccezione di cov, corr, pvalue, uniform
e normal hanno come unico argomento il nome di una variabile (attenzione:
non è possibile indicare le variabili con il loro numero identificativo in
una formula "genr") o un'espressione che si risolve in una variabie (ad es.
ln((x1+x2)/2)). cov e corr richiedono due argomenti e producono
rispettivamente il coefficiente di covarianza e di correlazione tra i due
argomenti. La funzione pvalue richiede gli stessi argomenti del comando
"pvalue", ma in questo caso occorre separare gli argomenti con delle
virgole. Questa funzione produce un p-value a una coda, che nel caso delle
distribuzioni normale e t è la "coda corta". Con la normale, ad esempio, sia
1.96 sia -1.96 daranno un risultato di circa 0.025.

uniform() e normal(), che non richiedono argomenti, producono delle serie
pseudo-casuali estratte dalle distribuzioni uniforme (0-1) e normale
standard (si veda anche il comando "set" con l'opzione seed). Le serie dalla
distribuzione uniforme sono generate usando il Mersenne Twister ; per le
serie dalla distribuzione normale, viene usato il metodo di Box e Muller
(1958), prendendo l'input dal Mersenne Twister.

Oltre agli operatori e alle funzioni mostrati, ci sono alcuni usi speciali
del comando "genr":

  "genr time" crea una variabile trend temporale (1,2,3,...) chiamata
  "time". "genr index" fa la stessa cosa, ma chiamando la variable index.

  "genr dummy" crea una serie di variabili dummy a seconda della periodicità
  dei dati. Ad esempio, nel caso di dati trimestrali (periodicità 4) il
  programma crea dummy_1, che vale 1 nel primo trimestre e 0 altrove,
  dummy_2 che vale 1 nel secondo trimestre e 0 altrove, e così via.

  "genr paneldum" crea una serie di variabili dummy da usare in un dataset
  di tipo panel -- si veda "panel".

  Alcune variabili interne che vengono generate durante il calcolo di una
  regressione possono essere recuperate usando "genr", nel modo seguente:

  $ess               somma dei quadrati degli errori
  $rsq               R-quadro
  $T                 numero delle osservazioni usate
  $df                gradi di libertà
  $trsq              TR-quadro (ampiezza del campione moltiplicata per 
                     R-quadro)
  $sigma             errore standard dei residui
  $aic               criterio di informazione di Akaike
  $bic               criterio di informazione bayesiana di Schwarz
  $lnl               log-verosimiglianza (dove è applicabile)
  $sigma             errore standard dei residui
  coeff(variabile)   coefficiente stimato per la variabile
  stderr(variabile)  errore standard stimato per la variabile
  rho(i)             coefficiente di autoregressione dei residui di ordine 
                     i-esimo
  vcv(x1,x2)         covarianza tra i coefficienti delle variabili x1 e x2 

Nota: nella versione a riga di comando del programma, i comandi "genr" che
estraggono dati relativi al modello si riferiscono sempre al modello stimato
per ultimo. Questo vale anche per la versione grafica del programma se si
usa "genr" nel "terminale di gretl" o si immette una formula usando
l'opzione "Definisci nuova variabile" nel menù Variabile della finestra
principale. Usando la versione grafica, però, è possibile anche estrarre i
dati da qualunque modello mostrato in una finestra (anche se non è il
modello più recente) usando il menù "Dati modello" nella finestra del
modello.

Le serie interne uhat e yhat contengono rispettivamente i residui e i valori
stimati dell'ultima regressione.

Sono disponibili tre variabili dataset "interne": $nobs, che contiene il
numero di osservazioni nell'intervallo del campione attuale (che non è
necessariamente uguale al valore di $T, il numero delle osservazioni usate
per stimare l'ultimo modello), $nvars, che contiene il numero di variabili
nel dataset (inclusa la costante), e $pd, che contiene la frequenza o la
periodicità dei dati (ad esempio 4 per dati trimestrali).

Due scalari speciali interni, $test e $pvalue, contengono rispettivamente il
valore e il p-value della statistica test che è stata generata dall'ultimo
comando di test eseguito esplicitamente (ad es. chow). Si veda il manuale di
gretl per i dettagli.

La variabile t serve da indice per le osservazioni. Ad esempio, genr dum =
(t=15) crea una variabile dummy che vale 1 per l'osservazione 15 e 0
altrove. La variabile obs è simile ma più flessibile: è possibile usarla per
isolare alcune osservazioni indicandole con una data o un nome. Ad esempio,
genr d = (obs>1986:4) o genr d = (obs="CA"). L'ultima forma richiede che
siano definite delle etichette, da usare tra virgolette doppie, per le
osservazioni.

È possibile estrarre dei valori scalari da una serie usando una formula genr
con la sintassi nome-variabile[osservazione]. Il valore di osservazione può
essere specificato con un numero o una data. Esempi: x[5], CPI[1996:01]. Per
i dati giornalieri occorre usare la forma AAAA/MM/GG, ad esempio
ibm[1970/01/23].

È possibile modificare una singola osservazione in una serie usando genr.
Per farlo, occorre aggiungere un numero di osservazione o una data valida
tra parentesi quadre al nome della variabile nel lato sinistro della
formula. Ad esempio: genr x[3] = 30 o genr x[1950:04] = 303.7.

La La tabella seguente mostra vari esempi di utilizzo di "genr", con alcune
note esplicative; ecco qualche esempio di utilizzo delle variabili dummy:

  Si supponga che x abbia valori 1, 2, o 3 e si desiderino tre variabili
  dummy, d1 = 1 se x = 1, e 0 altrove, d2 = 1 se x = 2 e così via. Per
  crearle, basta usare i comandi:

	    genr d1 = (x=1)
	    genr d2 = (x=2)
	    genr d3 = (x=3)

  Per creare z = max(x,y) usare

	    genr d = x>y
	    genr z = (x*d)+(y*(1-d))

  Formula               Commento
  -------               -------
  y = x1^3              x1 al cubo
  y = ln((x1+x2)/x3)    
  z = x>y               z(t) = 1 se x(t) > y(t), 0 altrove
  y = x(-2)             x ritardata di 2 periodi
  y = x(2)              x anticipata di 2 periodi
  y = diff(x)           y(t) = x(t) - x(t-1)
  y = ldiff(x)          y(t) = log x(t) - log x(t-1), il tasso di crescita 
                        istantaneo di x
  y = sort(x)           ordina x in senso crescente e la salva in y
  y = -sort(-x)         ordina x in senso decrescente
  y = int(x)            tronca x e salva il valore intero in y
  y = abs(x)            salva il valore assoluto di x
  y = sum(x)            somma i valori di x escludendo i valori mancanti -999
  y = cum(x)            cumulativa: y(t) = somma di x(s) per s da 1 a t 
  aa = $ess             imposta aa uguale alla somma dei quadrati degli errori 
                        dell'ultima regressione
  x = coeff(sqft)       estrae il coefficiente stimato per la variabile sqft 
                        nell'ultima regressione
  rho4 = rho(4)         estrae il coefficiente di autoregressione del quarto 
                        ordine dall'ultimo modello (presume un modello ar 
                        model)
  cvx1x2 = vcv(x1, x2)  estrae il coefficiente di covarianza stimato tra le 
                        variabili x1 e x2 dall'ultimo modello
  foo = uniform()       variabile pseudo-casuale uniforme nell'intervallo 0-1
  bar = 3 * normal()    variabile pseudo-casuale normale con mu = 0, sigma = 3
  samp = !missing(x)    vale 1 per le osservazioni dove il valore di x non è 
                        mancante.

Accesso dal menù: /Variabile/Definisci nuova variabile
Accesso alternativo: Menù pop-up nella finestra principale

Comando script: genr

# graphing Graphs "Grafici"

Gretl richiama un programma separato, gnuplot, per generare i grafici.
Gnuplot è un programma di grafica molto completo, con una miriade di
opzioni; gretl fornisce l'accesso, attraverso un'interfaccia grafica, a una
parte di queste opzioni, cercando di scegliere dei valori, ma è possibile
anche controllare l'aspetto di un grafico in tutti i suoi dettagli, se si
vuole.

Mentre un grafico viene visualizzato, facendo clic sulla finestra del
grafico si aprirà un menù pop-up con le seguenti opzioni:

  Salva come postscript: salva il grafico in formato encapsulated postscript
  (EPS)

  Salva come PNG: salva in formato Portable Network Graphics

  Salva alla sessione come icona: il grafico apparirà sotto forma di icona
  quando si seleziona "Visualizza Icone" dal menù Sessione

  Ingrandisci: permette di selezionare un'area all'interno del grafico per
  visualizzarla da vicino

  Stampa: permette di stampare il grafico direttamente (disponibile solo in
  Gnome e MS Windows)

  Copia negli appunti: permette di copiare il grafico per poi incollarlo in
  altri programmi Windows, come ad esempio MS Word (disponibile solo in MS
  Windows)

  Modifica: apre una finestra che permette di modificare vari dettagli
  dell'aspetto del grafico

  Chiudi: chiude la finestra del grafico

Se si conosce gnuplot e si desidera un controllo sull'aspetto del grafico
più preciso di quello fornito dalla finestra di modifica del grafico
(opzione "Modifica"), ci sono due possibilità:

  Una volta salvato il grafico come icona di sessione, facendo clic col
  tasto destro sull'icona si apre un altro menù pop-up. Una delle opzioni
  disponibili è "Comandi per modificare il grafico", che apre una finestra
  di modifica con i comandi di gnuplot. È possibile modificare questi
  comandi e salvarli per il futuro, oppure inviarli direttamente a gnuplot
  (con il comando "File/Invia a gnuplot" del menù della finestra di modifica
  dei comandi).

  Un altro modo per salvare i comandi del grafico (o per salvare il grafico
  in formati diversi da EPS o PNG) è quello di usare il comando "Modifica"
  nel menù pop-up del grafico per aprire la finestra di modifica del
  grafico, quindi fare clic su "File": verrà visualizzato un menù a discesa
  con i formati in cui è possibile salvare il grafico.

Per saperne di più su gnuplot, si veda
http://ricardo.ecn.wfu.edu/gnuplot.html oppure http://www.gnuplot.info

# graphpag Graphs "Pagina dei grafici"

La "pagina dei grafici" funzionerà solo se si è installato il sistema di
composizione LaTeX e si è in grado di generare e visualizzare file in
formato postscript.

Nella finestra della sessione, è possibile trascinare fino a otto grafici
sull'icona della pagina dei grafici. Facendo doppio clic sull'icona della
pagina dei grafici (o facendo clic col tasto destro e selezionando
"Mostra"), la pagina contenente i grafici selezionati verrà composta e
aperta con il proprio visualizzatore di file postscript, da cui sarà
possibile stamparla.

Per pulire la pagina dei grafici, fare clic col tasto destro sull'icona e
selezionare "Pulisci".

Su sistemi diversi da MS Windows, può essere necessario modificare
l'impostazione del programma per visualizzare il postscript, che si trova
nella sezione "Programmi" della finestra di dialogo delle Preferenze di
gretl (nel menù File della finestra principale).

# 3-D Graphs "Grafici tridimensionali"

Questa funzionalità migliora se è stata installata una versione di gnuplot
pari o superiore alla 3.8, che consente di manipolare il grafico 3D con il
mouse (ruotandolo ed allungando o riducendo gli assi).

Nella composizione di un grafico 3D, si noti che l'asse Z sarà l'asse
verticale, quindi se si ha una variabile dipendente che si pensa possa
essere influenzata da due variabili indipendenti, è meglio mettere la
variabile dipendente sull'asse Z e le altre due variabili sugli assi X e Y.

A differenza di molti altri grafici di gretl, i grafici 3D sono controllati
da gnuplot invece che da gretl, quindi il menù di modifica dei grafici in
questo caso non è disponibile.

# hausman Tests "Test di Hausman (diagnosi panel)"

Questo test è disponibile solo dopo aver stimato un modello con il comando
"pooled" (si veda anche "panel" e "setobs"). Testa il semplice modello
"pooled" (con tutte le osservazioni considerate indistintamente) contro le
principali alternative: il modello a effetti fissi e quello a effetti
casuali.

Il modello a effetti fissi aggiunge una variabile dummy per tutte le unità
cross section tranne una, permettendo così all'intercetta della regressione
di variare per ogni unità. Viene poi eseguito un test F per la
significatività congiunta di queste dummy. Il modello a effetti casuali
scompone la varianza dei residui in due parti: una specifica all'unità cross
section e una specifica all'osservazione particolare (la stima può essere
eseguita solo se il numero delle unità cross section nel dataset è maggiore
del numero dei parametri da stimare). La statistica LM di Breusch-Pagan
testa l'ipotesi nulla (che il modello pooled OLS sia adeguato) contro
l'alternativa a effetti casuali.

Può accadere che il modello pooled OLS sia rifiutato nei confronti di
entrambe le alternative, a effetti fissi o casuali. A patto che gli errori
specifici di unità o di gruppo siano non correlati con le variabili
indipendenti, lo stimatore a effetti casuali è più efficiente dello
stimatore a effetti fissi; nel caso contrario lo stimatore a effetti casuali
non è consistente e deve essergli preferito lo stimatore a effetti fissi.
L'ipotesi nulla per il test di Hausman è che l'errore specifico di gruppo
non sia correlato con le variabili indipendenti (e quindi che il modello a
effetti casuali sia preferibile). Un basso p-value per questo test
suggerisce di rifiutare il modello a effetti casuali in favore del modello a
effetti fissi.

Accesso dal menù: Finestra del modello, /Test/HAUSMAN - Diagnosi panel

Comando script: hausman

# hccme Estimation "Errori standard robusti"

Sono disponibili vari modi di calcolare gli errori standard robusti in
presenza di eteroschedasticità (e, nel caso dello stimatore HAC, di
autocorrelazione).

HC0 produce gli "errori standard originali di White"; HC1, HC2, HC3 e HC3a
sono varianti che si ritiene producano risultati migliori (più affidabili).
Per i dettagli sugli stimatori, si veda MacKinnon e White (Journal of
Econometrics, 1985) o Davidson e MacKinnon, Econometric Theory and Methods
(Oxford, 2004). Le sigle usate sono quelle proposte da Davidson e MacKinnon.
La variante "HC3a" è il "jackknife" descritto da MacKinnon e White (1985);
HC3 è una sua vicina approssimazione.

Se si usa lo stimatore HAC per serie storiche, è possibile calibrare la
lunghezza dei ritardi usando il comando "set". Si veda il manuale di gretl o
i file di aiuto per i dettagli.

Per i modelli GARCH sono disponibili due stimatori robusti della matrice di
covarianza: QML è lo stimatore di quasi massima verosimiglianza, e BW è lo
stimatore di Bollerslev-Wooldridge.

# hilu Estimation "Stima Hildreth-Lu"

Calcola le stime dei parametri per il modello specificato usando la
procedura di ricerca di Hildreth-Lu (ottimizzata con la procedura CORC),
progettata per correggere l'effetto della correlazione seriale nel termine
di errore. Viene mostrato un grafico della somma dei quadrati degli errori
per il modello trasformato rispetto ai valori di rho da -0.99 a 0.99.

Accesso dal menù: /Modello/Serie storiche/Hildreth-Lu

Comando script: hilu

# hsk Estimation "Stime corrette per l'eteroschedasticità"

Stima una regressione OLS e ne salva i residui. I logaritmi dei quadrati di
questi residui diventano la variabile dipendente di una regressione
ausiliaria che ha come regressori le variabili indipendenti originali e i
loro quadrati. I valori stimati dalla regressione ausiliaria sono quindi
usati per costruire una serie di pesi, usati per ri-stimare il modello
originale con la procedura dei minimi quadrati ponderati. Viene riportato il
risultato finale.

La serie dei pesi è composta da 1/sqrt(exp(y*)), dove y* denota i valori
stimati dalla regressione ausiliaria.

Accesso dal menù: /Modello/WLS corretti per eteroschedasticità

Comando script: hsk

# hurst Statistics "Esponente di Hurst"

Calcolate l'esponente di Hurst (una misura di persistenza, o di memoria
lunga) per una serie storica con almeno 128 osservazioni.

L'esponente di Hurst è discusso da Mandelbrot. In termini teorici è
l'esponente H nella relazione

  RS(x) = an^H

dove RS è l'"intervallo riscalato" della variabile x in un campione
dell'ampiezza n, mentre a è una costante. L'intervallo riscalato è
l'intervallo (valore massimo meno valore minimo) del valore cumulato, o
somma parziale, di x sul periodo del campione (dopo aver sottratto la media
campionaria), diviso per la deviazione standard campionaria.

Come punto di riferimento, se x è un rumore bianco (media zero, persistenza
zero) l'intervallo dei suoi valori cumulati (che forma una passeggiata
casuale), scalato per la deviazione standard, cresce come la radice quadrata
dell'ampiezza campionaria, ossia ha un esponente di Hurst atteso pari a 0.5.
Valori dell'esponente sensibilmente maggiori di 0.5 indicano persistenza
della serie, mentre valori minori di 0.5 indicano anti-persistenza
(autocorrelazione negativa). In teoria l'esponente deve essere compreso tra
0 e 1, ma in campioni finiti è possibile ottenere delle stime per
l'esponente maggiorni di 1.

In gretl, l'esponente è stimato usando il sotto-campionamento binario: si
inizia dall'intero intervallo dei dati, quindi si usano le due metà
dell'intervallo, poi i quattro quarti, e così via. Il valore RS è la media
presa sui vari campioni. L'esponente è quindi stimato come il coefficiente
di pendenza della regressione del logaritmo di RS sul logaritmo
dell'ampiezza del campione.

Accesso dal menù: /Variable/FIXME

Comando script: hurst

# label Dataset "Modifica degli attributi di una variabile"

In questa finestra di dialogo è possibile:

* Rinominare una variabile.

* Aggiungere o modificare una descrizione della variabile, che appare
accanto al nome della variabile nella finestra principale di gretl.

* Aggiugere o modificare il "nome per i grafici" della variabile. Questa
stringa (lunga al massimo 19 caratteri) viene usata al posto del nome della
variabile quando questa compare in un grafico. Così, ad esempio, è possibile
associare una stringa più comprensibile come "Tariffe telefoniche" a un nome
criptico come "tartel".

* Impostare (nel caso di un dataset di serie storiche) il metodo di
compattamento per la variabile, che verrà usato se si decide di ridurre la
frequenza del dataset, o se si importa la variabile da un dataset che ha una
frequenza maggiore di quella del dataset in uso.

Accesso dal menù: /Variabile/Modifica attributi
Accesso alternativo: Menù pop-up nella finestra principale

Comando script: label

# kpss Tests "Test KPSS"

Calcola il test KPSS (Kwiatkowski, Phillips, Schmidt e Shin, 1992) per la
stazionarietà di una variabile. L'ipotesi nulla è che la variabile in
questione sia stazionaria, attorno a un valore fisso o, se è stata
selezionata l'opzione includi un trend, attorno a un trend deterministico
lineare.

L'argomento ordine determina la dimensione della finestra usata per il
livellamento di Bartlett. Se si usa l'opzione Mostra i risultati della
regressione, vengono mostrati anche i risultati della regressione
ausiliaria, insieme alla varianza stimata della componente random walk della
variabile.

Accesso dal menù: /Variabile/Test KPSS

Comando script: kpss

# lad Estimation "Stima con minime deviazioni assolute"

Calcola una regressione che minimizza la somma delle deviazioni assolute dei
valori stimati dai valori effettivi della variabile dipendente. Le stime dei
coefficienti sono derivate usando l'algoritmo del simplesso di
Barrodale-Roberts; viene mostrato un messaggio di avvertimento se la
soluzione non è unica. Gli errori standard sono derivati attraverso la
procedura bootstrap con 500 estrazioni.

Accesso dal menù: /Modello/LAD - Minime deviazioni assolute

Comando script: lad

# leverage Tests "Test per le osservazioni influenti"

Deve seguire immediatamente un comando "ols". Calcola il "leverage" (h,
compreso tra 0 e 1) di ogni osservazione nel campione su cui è stato stimato
il precedente modello. Mostra il residuo (u) per ogni osservazione assieme
al leverage corrispondente e a una misura della sua influenza sulla stima:
u*h/(1-h). I "punti di leverage" per cui il valore di h supera 2k/n (dove k
è il numero dei parametri stimati e n è l'ampiezza del campione) sono
indicati con un asterisco. Per i dettagli sui concetti di leverage e
influenza, si veda Davidson e MacKinnon (1993, capitolo 2).

Vengono mostrati anche i valori DFFITS: questi sono "residui studentizzati"
(ossia i residui previsti, divisi per i propri errori standard) moltiplicati
per sqrt[h/(1 - h)]. Per una discussione dei residui studentizzati e dei
valori DFFITS si veda G. S. Maddala, Introduction to Econometrics, capitolo
12 e anche Belsley, Kuh e Welsch (1980). In breve, i "residui previsti" sono
la differenza tra il valore osservato e il valore stimato della variabile
dipendente all'osservazione t, ottenuti da una regressione in cui
quell'osservazione è stata omessa (oppure in cui è stata aggiunta una
variabile dummy che vale 1 solo per l'osservazione t); il residuo
studentizzato si ottiene dividendo il residuo previsto per il proprio errore
standard.

L'icona "+" in cima alla finestra del test di leverage apre una finestra di
dialogo che permette di salvare nel dataset in uso una o più delle variabili
del test.

Accesso dal menù: Finestra del modello, /Test/LEVERAGE - Osservazioni influenti

Comando script: leverage

# lmtest Tests "Test LM"

Questo comando racchiude vari test di ipotesi. La caratteristica comune è
che ttti i test prevedono la stima di una regressione ausiliaria in cui la
variabile dipendente è il residuo di una regressione "originale". Le
variabili indipendenti della regressione ausiliaria comprendono quelle della
regressione originale e alcuni termini aggiuntivi. La statistica test è
calcolata come (ampiezza campionaria * R-quadro) della regressione
ausiliaria: si distribuisce come chi-quadro con gradi di libertà pari al
numero dei termini aggiuntivi, sotto l'ipotesi nulla che essi non abbiano
potere esplicativo sui residui. Un valore "elevato" del chi-quadro (ossia un
basso p-value) suggerisce di rifiutare questa ipotesi nulla.

Accesso dal menù: Finestra del modello, /Test

Comando script: lmtest

# logistic Estimation "Stima logistica"

Regressione logistica: esegue una regressione OLS usando la trasformazione
logistica sulla variabile dipendente:

  log(y/(ymax - y))

La variabile dipendente dev'essere strettamente positiva. Se è una frazione
decimale, compresa tra 0 e 1, il valore predefinito per ymax (il massimo
asintotico della variabile dipendente) è 1. Se la variabile dipendente è una
percentuale, compresa tra 0 e 100, il valore predefinito di ymax è 100. È
possibile indicare un diverso valore massimo nella finestra di dialogo: il
valore deve essere maggiore di tutti i valori osservati della variabile
dipendente.

I valori stimati e i residui della regressione sono trasformati
automaticamente usando

  y = ymax / (1 + exp(-x))

dove x rappresenta un valore stimato oppure un residuo della regressione
OLS, usando la variabile dipendente trasformata. I valori riportati sono
dunque confrontabili con la variabile dipendente originale.

Si noti che se la variabile dipendente è binaria, occorre usare il comando
"logit" invece di questo comando.

Accesso dal menù: /Modello/Logistico

Comando script: logistic

# logit Estimation "Stima logit"

Regressione binomiale logit. La variabile dipendente deve essere binaria. Le
stime di massima verosimiglianza dei coefficienti per le
variabili-indipendenti sono ottenute con il metodo EM
(Expectation-Maximization, si veda Ruud, 2000, capitolo 27). Visto che il
modello è nonlineare, le pendenze dipendono dai valori delle variabili
indipendenti: le pendenze riportate sono valutate nelle medie di queste
variabili. La statistica chi-quadro testa l'ipotesi nulla che tutti i
coefficienti tranne la costante siano pari a zero.

Per condurre un'analisi delle proporzioni (dove la variabile dipendente è la
proporzione dei casi che hanno una certa caratteristica in ogni
osservazione, invece che una variabile binaria che indica se la
caratteristica è presente o no), non bisogna usare il comando "logit", ma
occorre costruire la variabile logit (ad es. "genr lgt_p = log(p/(1 - p))")
e usare questa come variabile dipendente in una regressione OLS; si veda
Ramanathan, capitolo 12.

Accesso dal menù: /Modello/Logit

Comando script: logit

# mahal Statistics "Distanze di Mahalanobis"

La distanza di Mahalanobis è la distanza tra due punti in uno spazio
k-dimensionale, scalata rispetto alla variazione statistica in ogni
dimensione dello spazio. Ad esempio, se p e q sono due osservazioni su un
insieme di k variabili con matrice di covarianza C, la distanza di
Mahalanobis tra le due osservazioni è data da

  sqrt((p - q)' * C-inversa * (p - q))

dove (p - q) è un vettore a k dimensioni. Se la matrice di covarianza è la
matrice identità, la distanza di Mahalanobis corrisponde alla distanza
Euclidea.

Lo spazio in cui vengono calcolate le distanze è definito dalle variabili
selezionate; per ogni osservazione nell'intervallo attuale viene calcolata
la distanza tra l'osservazione e il centroide delle variabili selezionate.
La distanza è la controparte multidimensionale di uno z-score standard e può
essere usata per giudicare se una certa osservazione "appartiene" a un
gruppo di altre osservazioni.

Se il numero delle variabili selezionate è minore o uguale a 4, vengono
mostrate la matrice di covarianza e la sua inversa. Facendo clic sul
pulsante "+" in cima alla finestra che mostra le distanze è possibile
aggiungerle al dataset come nuova variabile.

Accesso dal menù: /Dati/Distanze di Mahalanobis

Comando script: mahal

# markers Dataset "Aggiunta di marcatori"

Questo comando richiede il nome di un file che contiene "marcatori" per le
osservazioni, ossia brevi stringhe identificative per singole osservazioni
del dataset (ad esempio nomi di paesi o città, o altri codici), che possono
essere lunghe fino a 8 caratteri. Il file deve contenere un marcatore per
riga e devono esserci tanti marcatori quante sono le osservazioni nel
dataset corrente. Se queste condizioni sono rispettate e se il file
specificato esiste, i marcatori verranno aggiunti al dataset e saranno
visibili scegliendo "Mostra valori" dal menù "Dati" di gretl.

# meantest Tests "Test per la differenza delle medie"

Calcola la statistica t per l'ipotesi nulla che le medie della popolazione
siano uguali per due variabili selezionate, mostrando il suo p-value. Il
comando può essere eseguito con o senza l'ipotesi che le varianze delle due
variabili siano uguali (anche se questo è rilevante per la statistica test
solo se le due variabili contengono un diverso numero di osservazioni
valide).

Accesso dal menù: /Dati/Differenza delle medie

Comando script: meantest

# missing Dataset "Valori dati mancanti"

Imposta un valore numerico che sarà interpretato come "mancante" o "non
disponibile", per una serie particolare (nel menu Variabile) o globalmente
per l'intero dataset (nel menu Campione).

Gretl ha un codice interno per i valori mancanti, che non sempre può
coincidere con quello usato dai dati importati. Ad esempio, se una serie usa
il valore -1 col significato di "non disponibile", è possibile selezionare
"Imposta codice valori mancanti" nel menù Variabile e immettere il valore
"-1" (senza le virgolette); gretl interpreterà quindi i valori -1 come
osservazioni mancanti.

# modeltab Utilities "Tabella modelli"

Nella ricerca econometrica si è soliti stimare vari modelli con una
variabile dipendente comune, che differiscono tra loro per le variabili
indipendenti o per lo stimatore usato. In questa situazione è comodo poter
rappresentare i risultati delle regressioni sotto forma di una tabella dove
ogni colonna contiene i risultati (stime dei coefficienti e errori standard)
per un dato modello e ogni riga contiene le stime per una certa variabile
nei differenti modelli.

Gretl dà la possibilità di costruire una tabella simile (e di esportarla in
testo semplice, LaTeX o RTF - Rich Text Format). Ecco come fare:

1. 1. Stimare un modello che si vuole includere nella tabella e selezionare,
   nel menù File della finestra di visualizzazione del modello, "Salva alla
   sessione come icona" o "Salva come icona e chiudi".

2. 2. Ripetere il punto 1 per gli alri modelli da includere nella tabella
   (fino a un massimo di sei modelli).

3. 3. Completata la stima dei modelli, aprire l'icona della sessione di
   gretl (selezionando "Visualizza Icone" nel menù Sessione della finestra
   principale di gretl, o facendo clic su "Icone di sessione" sulla barra
   degli strumenti di gretl).

4. 4. La finestra delle icone di sessione contiene un'icona chiamata
   "Tabella Modelli". Per aggiungere alla tabella modelli il modello che
   deve apparire nella colonna più a sinistra della tabella, basta
   trascinare l'icona del modello sull'icona della Tabella Modelli, oppure
   fare clic col tasto destro sull'icona del modello e selezionare "Aggiungi
   alla tabella modelli" dal menù pop-up.

5. 5. Ripetere il punto 4 per gli altri modelli da aggiungere alla tabella.
   Il secondo modello scelto apparirà nella seconda colonna da sinistra
   della tabella, e così via.

6. 6. Ultimata la composizione della tabella, è possibile visualizzarla
   facendo doppio clic sulla sua icona. Per copiare la tabella negli appunti
   in uno dei formati supportati, basta fare clic sul menù Modifica della
   finestra in cui appare la tabella.

7. 7. Se l'ordinamento dei modelli nella tabella non è quello voluto, fare
   clic col tasto destro sull'icona della tabella modelli e selezionare
   "Pulisci", quindi tornare al punto 4.

Accesso dal menù: Finestra di sessione, Icona Tabella Modelli

Comando script: modeltab

# mpols Estimation "Stima OLS a precisione multipla"

Calcola le stime OLS per il modello indicato usando aritmetica in virgola
mobile a precisione multipla. Questo comando è disponibile solo se gretl è
compilato con il supporto per la libreria Gnu Multiple Precision (GMP).

Accesso dal menù: /Modello/MPOLS - Minimi quadrati in alta precisione

Comando script: mpols

# nls Estimation "Stima minimi quadrati non-lineari"

Esegue una stima con minimi quadrati non-lineari (NLS: Nonlinear Least
Squares) usando una versione modificata dell'algoritmo di
Levenberg-Marquandt. Occorre fornire una specificazione di funzione e si
raccomanda di specificare anche le espressioni per le derivate di questa
funzione rispetto a ognuno dei parametri, se possibile.

Esempio: si supponga di avere un dataset con le variabili C e Y (ad es.
greene11_3.gdt) e di voler stimare una funzione di consumo non-lineare del
tipo:

  C = alfa + beta * Y^gamma

I parametri alfa, beta e gamma devono per prima cosa essere aggiunti al
dataset, indicando un valore iniziale; è possibile farlo usando il comando
genr o attraverso i menù. È possibile inserire i comandi "genr" appropriati
nella finestra di dialogo della specificazione NLS prima di specificare la
funzione.

Nella finestra NLS si inseriranno le righe seguenti:

	C = alfa + beta * Y^gamma
	deriv alfa = 1
	deriv beta = Y^gamma
	deriv gamma = beta * Y^gamma * log(Y)

La prima riga indica la specificazione della funzione, mentre le righe
successive forniscono le derivate della funzione rispetto ad ognuno dei tre
parametri. Se non vengono fornite le righe "deriv", viene calcolata
un'approssimazione numerica del Jacobiano.

Se i parametri alfa, beta e gamma non sono stati dichiarati in precedenza, è
possibile premettere alle righe viste sopra le seguenti:

	genr alpha = 1
	genr beta = 1
	genr gamma = 1

Per ulteriori dettagli sulla stima NLS si veda il il manuale di gretl.

Accesso dal menù: /Modello/Minimi quadrati non lineari

Comando script: nls

# nulldata Dataset "Creazione di un dataset vuoto"

Crea un dataset "vuoto", che contiene solo una costante e una variabile
indice, con periodicità 1 e il numero indicato di osservazioni. Ad esempio,
è possibile creare un dataset a scopo di simulazione usando alcuni comandi
"genr" (come "genr uniform()" e "genr normal()") per generare dati di prova.
Questo comando può essere usato insieme a "loop". Si veda anche l'opzione
"seed" del comando "set".

Accesso dal menù: /File/Crea dataset

Comando script: nulldata

# ols Estimation "Stima minimi quadrati ordinari"

Calcola le stime minimi quadrati ordinari (OLS: Ordinary Least Squares) per
il modello specificato.

Oltre alle stime dei coefficienti e agli errori standard, il programma
mostra i p-value per le statistiche t (a due code) e F. Un p-value inferiore
a 0.01 indica significatività al livello dell'1 per cento ed è denotato con
***. ** indica invece la significatività tra l'1 e il 5 per cento, mentre *
indica un livello di significatività tra il 5 e il 10 per cento. Vengono
mostrate anche le statistiche di selezione del modello (il criterio di
informazione di Akaike, AIC, e il criterio di informazione bayesiana di
Schwarz, BIC). La formula usata per AIC è descritta in Akaike (1974), ossia
meno due volte la log-verosimiglianza massimizzata più il doppio del numero
di parametri stimati.

Accesso dal menù: /Modello/OLS - Minimi quadrati ordinari
Accesso alternativo: Pulsante Beta-hat sulla barra degli strumenti

Comando script: ols

# omit Tests "Test per le variabili omesse"

Questo comando deve seguire un comando di stima. Omette le variabili
indicate dal modello precedente e stima il nuovo modello. Se viene omessa
più di una variabile, viene mostrata la statistica F di Wald per le
variabili omesse, insieme al suo p-value (solo per la procedura OLS). Un
p-value inferiore a 0.05 indica che i coefficienti sono congiuntamente
significativi al livello del 5 per cento.

Accesso dal menù: Finestra del modello, /Test/OMIT - Ometti variabili

Comando script: omit

# online Dataset "Accesso ai database online"

Gretl può accedere ai database della Wake Forest University (se il proprio
computer è connesso a internet).

Dal menù "File, Consulta database", selezionare "Sul server di database":
apparirà una finestra che mostra i database disponibili alla Wake Forest (a
seconda della località e della velocità della connessione internet,
l'operazione può richiedere alcuni secondi). Oltre al nome del database e a
una breve descrizione, apparirà un campo "Stato", che mostra se il database
è stato installato localmente (sul disco del computer), e, in caso positivo,
se la versione installata è aggiornata a quella disponibile sul server.

Se un database è stato installato localmente ed è aggiornato, non c'è nessun
vantaggio nell'accedervi attraverso il server, mentre per un database non
installato o non aggiornato, può essere utile scaricare un elenco delle
serie di dati, facendo clic su "Scarica l'elenco delle serie". Apparirà una
nuova finestra da cui è possibile visualizzare i valori di una serie scelta,
vederne il grafico o importarle in gretl. È possibile effettuare queste
operazioni usando il menù "Serie", o attraverso il menù pop-up che appare
facendo clic col tasto destro su una serie. È anche possibile cercare
nell'elenco una variabile in particolare, usando il comando "Trova" del
menù.

Per poter accedere a un database anche offline, basta selezionare la riga
del database desiderato nella prima finestra e premere il pulsante
"Installa". Il database verrà scaricato in formato compresso, verrà
decompresso e installato sul proprio disco fisso, in modo da poter essere
caricato usando il menù "File, Consulta database, gretl".

# pca Statistics "Analisi delle componenti principali"

Analisi delle componenti principali. Mostra gli autovalori della matrice di
correlazione per le variabili nella lista-variabili, insieme alla
proporzione della varianza comune spiegata da ogni componente. Mostra anche
i corrispondenti autovettori (o "pesi della componente").

Usando l'opzione --save, le componenti con autovalori maggiori di 1.0
vengono salvati nel dataset come variabili, con i nomi PC1, PC2 e così via.
Queste variabili artificiali sono definite come la somma del peso della
componente moltiplicato per Xi standardizzato, dove Xi denota la i-esima
variabile nella lista-variabili.

Usando l'opzione --save-all, vengono salvate tutte le componenti, come
descritto sopra.

Accesso dal menù: Pop-up nella finestra principale (selezione multipla)

Comando script: pca

# pergm Statistics "Periodogramma"

Calcola e mostra (graficamente se non si è in modalità batch) lo spettro
della variabile specificata. Senza l'opzione --bartlett, viene mostrato il
periodogramma nel campione, usando l'opzione, lo spettro viene stimato
usando una finestra di Bartlett per i ritardi di lunghezza 2*sqrt(T) (dove T
è l'ampiezza del campione); si veda il capitolo 18 di Econometric Analysis
di Greene. Se viene mostrato il periodogramma del campione, viene mostrato
anche il test t per l'integrazione frazionale della serie ("memoria lunga"):
l'ipotesi nulla è che l'ordine di integrazione sia zero.

Accesso dal menù: /Variabile/Spettro
Accesso alternativo: Menù pop-up nella finestra principale (selezione singola)

Comando script: pergm

# poisson Estimation "Poisson"

Stimates una regressione di Poisson, in cui la variabile dipendente
rappresenta le occorrenze di un qualche tipo di evento e può assumere solo
valori interi non negativi.

Se una variabile casuale discreta Y segue la distribuzione di Poisson,

  Pr(Y = y) = exp(-v) * v^y / y!

per y = 0, 1, 2,.... La media e la varianza della distribuzione sono
entrambe uguali a v. Nel modello di regressione di Poisson, il parametro v è
rappresentato da una funzione di una o più varabili indipendenti. La
versione più comune del modello (e l'unica supportata da gretl) ha

  v = exp(b0 + b1*x1 + b2*x2 + ...)

, ossia il logaritmo di v è una funzione lineare delle variabili
indipendenti.

Opzionalmente è possibile aggiungere una variabile "offset" alla
specificazione, ossia una variabile di scala, il cui logaritmo viene
aggiunto alla funzione di regressione lineare (con un coefficiente implicito
di 1.0). Ciò ha senso se si ipotizza che il numero di occorrenze dell'evento
in questione sia proporzionale a qualche fattore noto, a parità di altre
condizioni. Ad esempio, il numero di incidenti stradali può essere
ipotizzato proporzionale al volume del traffico, che potrebbe essere
specificato come una variabile di "offset" in un modello di Poisson per il
tasso di incidenti. La variabile di offset dev'essere strettamente positiva.

Accesso dal menù: /Modello/Poisson

Comando script: poisson

# pooled Estimation "Stima pooled OLS"

In modalità predefinita, stima un modello con OLS (si veda "ols" per i
dettagli sulla sintassi) e lo marca come modello pooled o panel, rendendo
disponibile il comando "hausman".

Con l'opzione --unit-weights, viene usato lo stimatore feasible GLS, con i
pesi costruiti a partire dalle varianze specifiche degli errori per ogni
unità cross section. Questa modalità offre un guadagno di efficienza
rispetto alla stima OLS nel caso in cui la varianza differisca tra le
diverse unità.

Se viene usata anche l'opzione --iterate, lo stimatore GLS viene iterato: se
la procedura converge, verranno prodotte stime di massima verosimiglianza.

Accesso dal menù: /Modello/POOLED - Pooled OLS (panel)

Comando script: pooled

# probit Estimation "Stima probit"

Stima un modello probit, per variabili dipendenti binarie. Le stime di
massima verosimiglianza dei coefficienti delle variabili-indipendenti sono
ottenute con i minimi quadrati iterati (il metodo EM,
Expectation-Maximization). Poiché il modello è non-lineare, le pendenze
dipendono dai valori delle variabili indipendenti: le pendenze riportate
sono valutate nelle medie di queste variabili. La statistica chi-quadro
testa l'ipotesi nulla che tutti i coefficienti tranne la costante siano pari
a zero.

Il probit per l'analisi delle proporzioni non è ancora stato implementato in
gretl.

Accesso dal menù: /Modello/Probit

Comando script: probit

# pwe Estimation "Stimatore di Prais-Winsten"

Calcola le stime dei parametri usando la procedura Prais-Winsten,
un'implementazione GLS sviluppata per gestire l'autocorrelazione del primo
ordine nel termine di errore. La procedura viene iterata, così come in
"corc"; la differenza è che mentre Cochrane-Orcutt tralascia la prima
osservazione, Prais-Winsten ne fa uso. Per i dettagli, si veda per esempio
il capitolo 13 di Econometric Analysis (2000) di Greene.

Accesso dal menù: /Modello/Serie storiche/PWE - Prais-Winsten

Comando script: pwe

# reset Tests "Test RESET di Ramsey"

Va eseguito dopo la stima di un modello via OLS. Esegue il test RESET di
Ramsey per la specificazione del modello (non-linearità), aggiungendo alla
regressione il quadrato e il cubo dei valori stimati e calcolando la
statistica F per l'ipotesi nulla che i coefficienti dei due termini aggiunti
siano pari a zero.

Accesso dal menù: Finestra del modello, /Test/RESET - Ramsey

Comando script: reset

# restrict Tests "Test per vincoli lineari"

Impone un insieme di vincoli lineari sull'ultimo modello stimato o su un
sistema di equazioni definito in precedenza. La sintassi del comando è
leggermente diversa in ognuno dei due casi.

In entrambi i casi, l'insieme di vincoli deve essere racchiuso tra i comandi
"restrict" e "end restrict". Nel caso della singola equazione, i vincoli
sono applicati implicitamente all'ultimo modello e vengono valutati appena
viene terminato il comando "restrict". Nel caso del sistema, il comando
iniziale "restrict" deve essere seguito immediatamente dal nome di un
sistema di equazioni definito in precedenza (si veda "system"). I vincoli
vengono valutati nella successiva stima del sistema effettuata con il
comando "estimate".

Ogni vincolo nell'insieme va indicato sotto forma di equazione con una
combinazione lineare dei parametri al primo membro e un valore numerico al
secondo. Nel caso della singola equazione, i parametri sono indicati con la
sintassi bN, dove N rappresenta la posizione nella lista dei regressori, a
partire da zero. Ad esempio, b1 indica il secondo parametro della
regressione. Nel caso del sistema, i parametri vengono indicati con la
sintassi b seguita da due numeri tra parentesi quadre. Il primo numero
rappresenta la posizione dell'equazione all'interno del sistema a partire da
1, mentre il secondo indica la posizione nella lista dei regressori, a
partire da zero. Ad esempio b[2,0] indica il primo parametro della seconda
equazione, mentre b[3,1] il secondo parametro della terza equazione.

I termini b nell'equazione che rappresenta un vincolo possono essere
prefissati da un moltiplicatore numerico, usando il segno * per indicare la
moltiplicazione, ad esempio 3.5*b4.

Ecco un esempio di un insieme di vincoli per un modello stimato in
precedenza:

	restrict
	 b1 = 0
	 b2 - b3 = 0
	 b4 + 2*b5 = 1
	end restrict

Ed ecco un esempio di un insieme di vincoli da applicare a un sistema (se il
nome del sistema non contiene spazi, è possibile tralasciare le virgolette).

	restrict "Sistema 1"
	 b[1,1] = 0
	 b[1,2] - b[2,2] = 0
	 b[3,4] + 2*b[3,5] = 1
	end restrict

Nel casdo dell'equazione singola, i vincoli sono valutati attraverso un test
F di Wald, usando la matrice di covarianza dei coefficienti del modello in
questione. Nel caso del sistema, vengono presentati i risultati completi
della stima del sistema soggetto ai vincoli; la statistica test dipende
dallo stimatore scelto (un test del rapporto di verosimiglianza nel caso di
un sistema stimato con un metodo di massima verosimiglianza, o altrimenti un
test F asintotico).

Accesso dal menù: Modello, /Test/Vincoli lineari

Comando script: restrict

# rmplot Graphs "Grafici range-mean"

Grafici Range-mean: questo comando crea un semplice grafico che aiuta a
capire se una serie storica y(t) ha varianza costante o no. L'intero
campione t=1,...,T viene diviso in piccoli sotto-campioni di dimensione
arbitraria k. Il primo sotto-campione è formato da y(1), ... ,y(k), il
secondo da y(k+1), ... , y(2k), e così via. Per ogni sotto-campione, vengono
calcolati la media e il campo di variazione (range: il valore massimo meno
quello minimo) e viene costruito un grafico con le medie sull'asse
orizzontale e i campi di variazione su quello verticale, in modo che ogni
sotto-campione sia rappresentato da un punto sul piano. Se la varianza della
serie è costante, ci si aspetta che il campo di variazione del
sotto-campione sia indipendente dalla media del sotto-campione; se i punti
si dispongono su una linea crescente, la varianza della serie cresce al
crescere della media, viceversa se i punti si dispongono su una linea
decrescente.

Oltre al grafico, gretl mostra anche le medie e i campi di variazione per
ogni sotto-campione, insieme al coefficiente di pendenza della regressione
OLS del campo di variazione sulla media e il p-value per l'ipotesi nulla che
la pendenza sia zero. Se il coefficiente di pendenza è significativo al
livello del 10 per cento, viene mostrata sul grafico la linea stimata della
regressione del campo di variazione sulla media.

Accesso dal menù: /Variabile/Grafico range-mean

Comando script: rmplot

# runs Tests "Test delle successioni"

Esegue il test non parametrico "delle successioni" per la casualità della
variabile specificata. Ad esempio, per testare la casualità delle deviazioni
dalla mediana per una variabile chiamata x1, con una mediana diversa da
zero, eseguire i comandi seguenti:

	genr signx1 = x1 - median(x1)
	runs signx1

Accesso dal menù: /Variabile/Test delle successioni

Comando script: runs

# sampling Dataset "Impostazione del campione"

Il menù Campione offre vari modi di selezionare un sotto-campione dal
dataset in uso.

Scegliendo "Campione/Imposta in base a dummy...", viene chiesto di scegliere
una variabile dummy (indicatrice), che può assumere solo valori 0 o 1 per
ogni osservazione. Il campione verrà limitato alle osservazioni per cui la
variabile dummy vale 1.

Scegliendo "Campione/Imposta in base a condizione...", viene chiesto di
inserire un'espressione Booleana (logica), dello stesso tipo di quella che
si userebbe per definire una variabile dummy. Ad esempio, l'espressione
"sqft > 1400" selezionerà solo le osservazioni per cui la variabile sqft ha
un valore maggiore di 1400. Le condizioni possono essere concatenate con gli
operatori logici "&" (AND) e "|" (OR) e possono essere negate usando "!"
(NOT).

Il comando "Campione/Scarta valori mancanti" ridefinisce il campione in modo
da escludere tutte le osservazioni per cui i valori di una o più variabili
sono mancanti (lasciando nel campione solo i casi completi).

Per selezionare le osservazioni per cui solo una particolare variabile non
ha valori mancanti, occorre usare "Campione/Imposta in base a condizione..."
e inserire la condizione Booleana "!missing(nome-variabile)" (sostituire
"nome-variabile" con il nome della variabile che si intende usare).

Se sono state associate etichette alle osservazioni, è possibile escludere
una particolare osservazione dal campione impostando una condizione del tipo
obs!="Francia". L'etichetta dell'osservazione deve essere racchiuso tra
virgolette doppie.

Occore tenere presente che ridefinendo il campione basandosi su una
variabile dummy, un'espressione Booleana o sul criterio delle osservazioni
mancanti, tutte le informazioni "strutturali" contenute nel file con la
descrizione dei dati (riguardanti la struttura di serie storiche o di panel
dei dati) vengono perse. È possibile reimpostare la struttura originale con
"Campione/Imposta frequenza e inizio...".

Si veda il manuale di gretl per maggiori dettagli.

# scatters Graphs "Grafici a dispersione multipli"

Produce grafici a dispersione della "Variabile asse Y" selezionata rispetto
ad ognuna delle "Variabili asse X" selezionate. Questi gruppi di grafici
sono utili nell'analisi esplorativa dei dati. È possibile creare fino a sei
grafici alla volta, eventuali variabili in sovrappiù saranno ignorate.

Accesso dal menù: /Dati/Grafici multipli a dispersione

Comando script: scatters

# seed Programming "Seme dei numeri casuali"

Richiede un argomento intero. Imposta il seme del generatore di numeri
pseudo-casuali usato dalle opzioni Variabile casuale uniforme e normale nel
menù Dati, Aggiungi variabili. Di solito il seme è impostato al momento
dell'avvio del programma usando l'orologio di sistema, ma per ottenere
sequenze ripetibili di numeri pseudo-casuali occorre impostarlo manualmente.

# setmiss Dataset "Codice dei valori mancanti"

Imposta un valore numerico che verrà interpretato come "mancante" o "non
applicabile", per una particolare serie (sotto il menù Variabile) o
globalmente per l'intero dataset (sotto il menù Campione).

Gretl ha un codice interno per i valori mancanti, che non sempre può
coincidere con quello usato dai dati importati. Ad esempio, se una serie usa
il valore -1 col significato di "non disponibile", è possibile selezionare
"Imposta codice valori mancanti" nel menù Variabile e immettere il valore
"-1" (senza le virgolette); gretl interpreterà quindi i valori -1 come
osservazioni mancanti.

Accesso dal menù: /Campione/Imposta codice valori mancanti

Comando script: setmiss

# spearman Statistics "Correlazione di rango di Spearman"

Mostra il coefficiente di correlazione di rango di Spearman per una coppia
di variabili. Le variabili non devono essere state ordinate manualmente in
precedenza, se ne occupa la funzione.

L'ordinamento automatico è dal massimo al minimo (ossia il valore massimo
nei dati assume il rango 1). Se occorre invertire l'ordinamento, creare una
variabile che è il negativo della variabile originale, ad esempio:

	genr altx = -x
	spearman altx y

Accesso dal menù: /Modello/SPEARMAN - Correlazione di rango

Comando script: spearman

# store Dataset "Salvataggio dei dati"

Salva l'intero dataset, o un sottoinsieme delle variabili se è stata
indicata una lista-variabili, nel file indicato con file-dati.

L'impostazione predefinita è di salvare i dati nel formato "interno" di
gretl, ma le opzioni del comando permettono di usare formati alternativi. I
dati CSV (Comma-Separated Values, dati separati da virgole) possono essere
letti dai programmi di foglio elettronico e possono essere modificati con un
editor di testi. I formati Octave, R e PcGive sono destinati ad essere usati
con i rispettivi programmi. La compressione con gzip può essere utile per
grandi dataset. Si veda il il manuale di gretl per i dettagli sui vari
formati.

Si noti che le variabili scalari non saranno salvate automaticamente: per
salvarle occorre includerle esplicitamente nella lista-variabili.

Accesso dal menù: /File/Salva dati; /File/Esporta dati

Comando script: store

# system Estimation "Sistemi di equazioni"

Gretl offre la possibilità di stimare sistemi di equazioni, ma al momento
solo tramite l'interfaccia a riga di comando. Si veda l'aiuto online per i
comandi testuali o il manuale di gretl.

Comando script: system

# tobit Estimation "Stima Tobit"

Stima un modello Tobit. Il modello può essere appropriato quando la
variabile dipendente è "troncata". Ad esempio, vengono osservati valori
positivi o nulli della spesa dei consumatori per beni durevoli, ma non
valori negativi; tuttavia le decisioni di spesa possono essere pensate come
derivanti da una propensione al consumo, sottostante e non osservata, che
può anche essere negativa in alcuni casi. Per i dettagli si veda il capitolo
20 di Econometric Analysis di Greene.

Accesso dal menù: /Modello/Tobit

Comando script: tobit

# tsls Estimation "Stima minimi quadrati a due stadi"

Questo comando richiede la scelta di due liste di variabili; le variabili
indipendenti che appaiono nel modello e un elenco di "strumenti". Questi
ultimi comprendono le variabili esogene e/o altre variabili predeterminate
che possono essere usate come regressori per derivare valori stimati delle
variabili endogene del modello.

Se alcune delle variabili del modello sono esogene, vanno incluse in
entrambe le liste.

Accesso dal menù: /Modello/TSLS - Minimi quadrati a due stadi

Comando script: tsls

# var Estimation "Stima autoregressione vettoriale"

Questo comando richiede la specificazione dei seguenti elementi:

  - La variabile dipendente per la prima equazione nel sistema VAR;

  - L'ordine di ritardi, ossia il numero di ritardi di ogni variabile
  presente nel sistema;

  - Eventuali termini "deterministici" (ad es. la costante, un trend
  temporale, variabili dummy stagionali e così via; e

  - Una lista di variabili indipendenti, i cui ritardi saranno inclusi a
  destra delle equazioni (nota: non includere variabili ritardate in questa
  lista, verranno aggiunte automaticamente).

Viene calcolata una regressione separata per ogni variabile del sistema; i
risultati comprendono i test F per i vincoli di uguaglianza a zero su tutti
i ritardi della variabili e un test F per il ritardo massimo, oltre
(opzionalmente) alla scomposizione della varianza della previsione e alle
funzioni di impulso-risposta.

Le decomposizioni della varianza della previsione e le funzioni di
impulso-risposta sono basate sulla decomposizione di Cholesky della matrice
di covarianza contemporanea, e in questo contesto l'ordine in cui vengono
date le variabili stocastiche conta. La prima variabile nella lista viene
considerata come la "più esogena" all'interno del periodo.

Accesso dal menù: /Modello/Serie storiche/VAR - Autoregressione vettoriale

Comando script: var

# vartest Tests "Test per la differenza delle varianze"

Calcola la statistica F per l'ipotesi nulla che le varianze della
popolazione per le variabili selezionate siano uguali e mostra il p-value.

Accesso dal menù: /Dati/Differenza delle varianze

Comando script: vartest

# wls Estimation "Stima minimi quadrati ponderati"

Detta "variabile-pesi" la variabile scelta nel campo "Variabile pesi", viena
stimata una regressione OLS in cui la variabile dipendente è il prodotto
della variabile dipendente selezionata e della variabile-pesi, e anche le
variabili indipendenti sono moltiplicate per la variabile-pesi. Se la
variabile-pesi è una variabile dummy, ciò equivale a eliminare tutte le
osservazioni per cui variabile-pesi vale zero.

Accesso dal menù: /Modello/WLS - Minimi quadrati ponderati

Comando script: wls