Memoria Semantica

  • Uploaded by: Alessio Cimarelli
  • 0
  • 0
  • December 2019
  • PDF

This document was uploaded by user and they confirmed that they have the permission to share it. If you are author or own the copyright of this book, please report to us by using this DMCA report form. Report DMCA


Overview

Download & View Memoria Semantica as PDF for free.

More details

  • Words: 4,933
  • Pages: 21
La Memoria Semanti a

Tesina di approfondimento per il orso di Ciberneti a Generale II Alessio Cimarelli

Sommario

Si parla un po' della memoria in generale, fo alizzando l'attenzione su quella a breve termine e soprattutto sulla parte semanti a di quella a lungo termine. Si des rivono al uni dei modelli più importanti e di maggior su

esso per la simulazione della memoria semanti a.

Indi e 1 Introduzione

3

2 Memoria a breve termine

4

3 Memoria a lungo termine 3.1 Modello di Tulving . . . . . . . . . . . . . . . . . . . . . . . .

6 6

4 Memoria semanti a 4.1 Semanti a e on etti . . . . . . . . . . . . . 4.2 Reti semanti he . . . . . . . . . . . . . . . . 4.2.1 Modelli a rete gerar hi a . . . . . . . 4.2.2 Modello di Collins-Loftus . . . . . . . 4.2.3 Semanti features- omparison model 4.2.4 Modelli asso iativi . . . . . . . . . . 4.2.5 Modelli statisti i . . . . . . . . . . . 4.3 Appli azioni e uriosità . . . . . . . . . . . .

. . . . . . . .

. . . . . . . .

. . . . . . . .

. . . . . . . .

. . . . . . . .

. . . . . . . .

. . . . . . . .

. . . . . . . .

. . . . . . . .

. . . . . . . .

8 8 11 12 13 13 14 15 17

A Spreading a tivation

18

B Priming

19

C Apprendimento Hebbiano

20

2

Capitolo 1 Introduzione Ben hé la memoria sia una funzione onnipresente in ogni forma di attività

ognitiva, solitamente se ne fornis e una lassi azione in base ad al uni parametri notevoli. • Durata: a breve o lungo termine, sensoria • Funzione: i oni a, e oi a, gra a, episodi a, semanti a, pro edurale • Modalità: visiva, uditiva, motoria, verbale • Stadi logi i: odi a, ssazione, re upero

In psi ologia ognitiva si tende a pensare alla memoria ome ostituita da nodi (i on etti) e da onnessioni tra di essi (asso iazioni tra on etti), in un modello di asso iazione verti ale in ui la onnessione tra on etti porta alla formazione di un on etto di più alto livello. Stori amente nella se onda metà del se olo s orso si sono progressivamente abbandonate le prime teorie a pro esso unitario della memoria, a favore di modelli multipro esso e multimodali he ammettono un'integrazione tra pro essi diversi inter onnessi.

3

Capitolo 2 Memoria a breve termine Il primo di questi è dovuto ad Atkinson e Shirin nel 1971, se ondo i quali l'informazione sensoriale è dapprima onservata nella memoria a breve termine (di pi

ola apa ità ed estremamente fragile e volatile) e solo su

essivamente passa, almeno in parte, a quella a lungo termine, il ui grado di ssazione dipende fortemente e linearmente dalla reiterazione dell'informazione stessa. Punti deboli (non supportati da esperimenti su

essivi): • memoria a breve termine unitaria, indipendente dal tipo di informazio-

ne immagazzinata;

• me

anismo di mantenimento della memoria a lungo termine indipen-

dente dalla tipologia del dato, estremamente eterogeneo;

• sopravvalutazione del ruolo della reiterazione per il ri ordo; • onnessione seriale a senso uni o tra memoria a breve e a lungo termine.

Il modello di Baddeley e Hit h del 1974, approfondito da Baddeley nel 1986 e integrato dalle ri er he di Norman e Shalli e del 1986, supera questi limiti interpretando la memoria a breve termine ome memoria di lavoro, in ui al mantenimento temporaneo dell'informazione si aggiunge una sua manipolazione di una erta omplessità. Questo sistema si può s hematizzare nel seguente modo. • Sistema di elaborazione entrale, dipendente dalla tipologia dell'infor-

mazione, on il ruolo di integrare informazioni dierenti o su

essive (simile ai sistemi attenzionali); oinvolge una erta attività de isionale basata su priorità. 4

• Cir uito arti olatorio per la memorizzazione in forma verbale ( i lo

fonologi o).

 Magazzino fonologi o per il mantenimento dell'informazione linguisti a (molto volatile).  Pro esso di ontrollo basato sul linguaggio interno (mantiene la tra

ia mnesti a dei dati del magazzino fonologi o mediante ripasso subvo ale). • Ta

uino visuo-spaziale per le informazioni spaziali e visive (funziona-

mento simile al sistema pre edente).

5

Capitolo 3 Memoria a lungo termine Presenta una struttura piuttosto arti olata: • Di hiarativa o proposizionale (espli ita)  Semanti a (Tulving 1972) ∗ Modelli a rete: gerar hi a (Collins e Quillian 1969) o a diusione (Collins e Loftus 1975) ∗ Modelli a s hemi (Bartlett 1932), frames (Minsky 1975), s ript (S hank e Abelson 1977) (Cornoldi 1986)  Episodi a ∗ Autobiogra a • Impli ita

 Immaginativa  Pro edurale 3.1

Modello di Tulving

Il modello di maggior su

esso per la s hematizzazione della memoria a lungo termine è dovuto al lavoro di Endel Tulving, in ui si introdu ono tre sottosistemi parzialmente dipendenti della memoria, he agis ono insieme per formare le apa ità ognitive generali. • Memoria episodi a: prevalentemente auto os iente, riguarda la ge-

stione degli eventi temporalmente deniti nel tempo soggettivo, riferiti al Sé, e per questo deriva dall'esperienza diretta e ri hiede uno stato os iente nella fase di ri hiamo. Risulta molto essibile, ma relativamente lenta. 6

• Memoria semanti a: os iente, riguarda l'organizzazione e gestione

(immagazzinamento e re upero) delle informazioni generali sul mondo ( on etti) ra

olte mediante l'esperienza ed è per questo alla base della omprensione. Nel re upero permette di esprimere onos enze a pres indere dai parti olari del loro apprendimento, è essibile e relativamente rapida.

• Memoria pro edurale: sub os iente, ontrolla le risposte omporta-

mentali a stimoli parti olari e pre isi e i omportamenti automati i. È però ad un livello più avanzato del puro istinto, per hé i omportamenti possono essere appresi e dimenti ati. È di tipo pres rittivo, piuttosto rigida e rapida.

Ognuno di essi ha tre modalità di azione: • A quisizione • Rappresentazione • Espressione della onos enza

7

Capitolo 4 Memoria semanti a 4.1

Semanti a e on etti

La dis iplina he studia i on etti e le loro relazioni re ipro he prende il nome di semanti a e se ne possono individuare tre tipi: • s. lessi ale: aratteristi he del signi ato di tratti, morfemi, parole; • s. frasale: signi ato di proposizioni, struttura predi ativa, ruoli tema-

ti i, inferenze, atti linguisti i;

• s. dis orsiva: signi ato della grammati a delle storie, s ript, frame,

s hemi.

Nei pro essi semanti i svolge un ruolo fondamentale il prin ipio di omposizionalità (Frege 1892), he distingue in un'espressione linguisti a tra il signi ato ( he indi a il modo in ui l'espressione denota iò a ui si riferis e) e il suo riferimento ( he indi a iò he l'espressione denota del mondo). Dal punto di vista ognitivo, apire una frase equivale a ombinare i signi ati delle parole se ondo le relazioni grammati ali he inter orrono tra le parole he la ompongono. Questo permette di produrre un numero prati amente innito di espressioni da un numero limitato di parole e regole lessi ali. Il prin ipio di omposizionalità ha però diversi limiti, tra ui la omprensione delle espressioni idiomati he, in ui il siigni ato non è funzioe diretta del signi ato delle loro parti, e di quelle metafori he, in ui il signi ato è derivato omposizionalmente, ma la orretta omprensione ri hiede una

orretta interpretazione. Superare il prin ipio di omposizionalità ri hiede la presenza di me

anismi di inferenza basati sulle onos enze del mondo, oltre he sulle informazio8

ni linguisti he espli ite. Indizi su questi me

anismi vengono prin ipalmente da tre fenomeni linguisti i: • ambiguità lessi ale; • essibiltà semanti a; • instanziazione di termini generali.

Nel primo aso una stessa forma fonologi a (omofonia) o ortogra a (omograa) viene impiegata in una lingua per denotare entità distinte. L'ambiguità non è però ristretta al solo lessi o, ma si in ontra a tutti i livelli nei quali si può analizzare una lingua: • l. per ettivo (il frammento di parlato /visitedi/); • l. morfologi o (la forma verbale hiusi ); • mes olamento di livelli (il termine porto oppure la frase la ve

hia porta

la sbarra ).

Solitamente è il ontesto he permette la disambiguazione, ma non 'e

hiaro quando e ome l'informazione di ontesto viene usata. Solitamente si fa riferimento a tre ipotesi: • modello esaustivo: in una prima fase (a

esso) vengono attivati tutti

i signi ati della parola, su

essivamente (interpretazione) viene selezionato il signi ato ontestualmente pertinente da un onfronto on i signi ati di tutte le altre parole nella frase;

• modello a ri er a ordinata: tutti i signi ati della parola vengono presi

in onsiderazione sequenzialmente in ordine de res ente di frequenza, no a he non ne viene selezionato uno pertinente;

• modello ad a

esso selettivo: la presenza di hiare informazioni onte-

stuali permette un a

esso diretto e selettivo al signi ato della parola più pertinente, an he se non è quello dominante.

Il se ondo aso indi a he a volte, nella omprensione del signi ato di una frase è ne essario re uperare l'uso selettivo di un singolo aspetto del signi ato di una parola e non tutti. In altri termini, solo al uni tratti del signi ato di una parola ontribuis ono al signi ato di una frase. Nel terzo aso, il trasferimento di una proprietà da un on etto ad un altro ha luogo non per sempli e opiatura, ma attraverso un me

anismo di 9

instanziazione he permette di adattare la proprietà lle aratteristi he del nuovo on etto. Le interpretazioni di termini ome alto, grande, e

. variano a se onda dei ontesti. Tutto iò porta alla on lusione he la rappresentazione mentale, punto d'arrivo del pro esso di omprensione, è ostruita prevalentemente sulla base di informazioni linguisti he ontenute nella frase, ma in lude an he informaziooni inferite, non presenti espli itamente nella struttura letterale della frase. Una volta ostruiti, i on etti sono le unità di base della memoria semanti a e ostituis ono la nostra onos enza di base. Se ne rilevano tre aspetti fondamentali: • sono gli strumenti ognitivi he rendono possibile l'ese uzione di ope-

razioni mentali;

• hanno un ruolo entrale nei pro essi di lassi azione e ategorizzazio-

ne;

• si relazionano on gli altri on etti.

Il pro esso di ategorizzazione ( ioè la ostruzione di on etti) è importante per hé permette di sempli are drasti amente l'analisi degli input ambientali, prati amente inniti. Grazie a questa apa it 'a, si è in grado di utilizzare le stesse risposte omportamentali a tutti gli elementi di una stessa

lasse, evitando di sviluppare e memorizzarne una per ogni oggetto. Se ondo la teoria lassi a, un on etto è denito da un insieme nito di aratteristi he ne essarie e su ienti, possedute da tutti gli esemplari appartenenti al on etto (o lasse) in questione. Il ontenuto del on etto è l'insieme di queste aratteristi he. In realtà molto spesso non è hiaro quali siano queste aratteristi he e tanto meno quale sia l'insieme minimo

he denis e un qualsiasi on etto. A questo proposito sono state quindi proposte diverse teorie: • ipotesi della somiglianza di famiglia (Wittgenstein) • teoria del prototipo (Ros h) • teoria del template mat hing

Deniti i on etti, la memoria semanti a può gestirli e immagazzinarli in vari modi: 10

• modelli della rappresentazione astratta: le informazioni sono mante-

nute in memoria in un formato amodale, slegato dai parti olari sensomotori delle entit rappresentate;

• modelli per esemplari: il sistema on ettuale è ostituito dalle tra

e

mnesti he di tutti gli esemplari diversi he sono stati odi ati nel tempo;

• appro

io onnessionista: il sistema on ettuale ha un'ar hitettura di-

stribuita, in ui la rappresentazione di un on etto è disseminata in diversi sottosistemi, in ui non esistono nodi on ettuali per on etti parti olari, ma insiemi distribuiti di attributi di base, ondivisi da vari

on etti, he si attivano in ongurazioni appropriate in riferimmento al on etto rilevante.

Il vantaggio dell'appro

io onnessionista sta nel fatto he la strutturazione in ategorie non sarebbe un prin ipio organizzativo della rappresentazione, ma una proprietà emergente. 4.2

Reti semanti he

La natura ategorizzante della memoria semanti a suggeris e una sua struttura a rete (modello di rete semanti a), la ui topologia può essere inferita dai tempi di risposta e ri onos imento. Rappresentando i on etti e le ategorie sotto forma di nodi e le asso iazioni sintatti he di ollegamenti diretti, durante il pro esso di re upero dell'informazione as oltare un on etto si tradu e in un'attivazione del nodo

orrispondente, he si trasmette ad altri nodi ad esso onnessi (spreading a tivation, fr. appendi e A), lungo un per orso all'interno della rete he può essere più o meno lungo (topologi amente e, quindi, temporalmente) a se onda della distanza semanti a tra i on etti oinvolti (problema del priming,

fr. appendi e B). Nelle onnessioni tra nodi può inoltre essere presente un erto grado di ridondanza e una oppia di on etti è quindi generalmente legata da diversi

ammini possibili. Un esempio è un database lessi ale di una lingua, in ui le parole sono raggruppate in sottoinsiemi di sinonimi, legati tra loro da relazioni semanti he (meronimia, olonimia, iponimia, ipernimia, sinonimia, antonimia). Attraverso una rete semanti a si può an he denire il signi ato stesso di un on etto mediante la sua ategoria di appartenenza e l'insieme delle sue 11

proprietà (ovvero mediante la sua posizione all'interno della rete). L'a

umulo di esperienze riguardo un on etto, quindi, si tradu e in un aumento della sua onnettività all'interno della rete e le sue onnessioni denis ono il suo signi ato. 4.2.1

Modelli a rete gerar hi a: TLC e modello di Collins-Quillian

Il Tea hable Language Comprehender (TLC) è il primo modello a rete della memoria semanti a: ogni on etto rappresenta un nodo, osì ome le proprietà, ed ogni nodo è direttamente onnesso mediante un puntatore solo ai

on etti he ontiene e in ui è ontenuto, oltre naturalmente alle proprietà

he gli appartengono. In questo aso lo spreading a tivation segue un ammino verti ale attraverso la gerar hia e la distanza tra due nodi oin ide on quella tra i livelli gerar hi i orrispondenti. Una risposta orretta ad un quesito (tipi amente nella forma X è un Y?) ri hiede he l'overlap tra gli spreading a tivations asso iati ai due on etti abbiano un overlap oltre una erta soglia minima. Questo tipo di rete ontiene quindi tre tipi di oggetti: • unità, on etti, nodi della rete • proprietà, aratteristi he funzionali delle unità (o an he negazioni di

esse)

• links, relazioni tra unità (relazioni di appartenenza) e tra queste e le

proprietà

I on etti sono osì organizzati gerar hi amente (quelli più astratti e generali in ima e quelli più on reti e spe i i alla base) e ubbidis ono ad un prin ipio di e onomia ognitiva: le loro proprietà sono odi ate al livello più alto possibile (minimizzazione della ridondanza dell'informazione). Più esattamente la velo ità nel risolvere un problema dipende sia dalla struttura delle onnessioni tra i nodi oinvolti sia dal me

anismo di re upero dell'informazione: asso iare direttamente una proprietà ad un nodo di basso livello aumenta l'e ienza di re upero, ma non è e onomi o da un punto di vista della quantità di memoria utilizzata. Risulta più e iente ri avare una proprietà di un nodo di basso livello risalendo la gerar hia piuttosto he memorizzarla sempli emente. Se poi ad ogni onnessione asso iamo un peso (modello di Collins-Quillian), le relazioni maggiormente utilizzate saranno an he quelle più velo i. 12

I limiti delle reti gerar hi he sono nella loro in apa ità di prevedere errori di asso iazione o di valutare più rapidamente una asso iazione falsa. In più non tutte le ategorie possono essere rappresentate in una forma gerar hi a, adatta per on etti di tipo tassonomi o ome animale, ma non per on etti più astratti. 4.2.2

Modello di Collins-Loftus

Si abbandona il prin ipio di e onomia ognitiva e osì i ollegamenti tra nodi hanno una struttura gerar hi a molto debole. Durante il re upero sono attivati man mano tutti i nodi ollegati al primo, on un'attivazione he de res e on la distanza e ol tempo (spreading a tivation ). Ora la distanza tra

on etti non è data dalla dierenza dei livelli gerar hi i, ma dalla lunghezza delle onnessioni pesate he li legano. An he questo modello è in grado di prevedere eetti di tipi ità e spiegare il priming semanti o. 4.2.3

Semanti features- omparison model

(Smith-Shoben-Rips)

Ora le ategorie semanti he sono rappresentate da insiemi non strutturati di proprietà, he denis ono quindi ogni on etto. In questo aso, quindi, le relazioni tra on etti e la loro appartenenza o meno a ategorie non sono espli ite, ma devono essere ri avate indirettamente onfrontando le proprietà degli insiemi oinvolti. In parti olare esistono due tipi di proprietà: • p. ne essarie he denis ono il on etto (dening features, diminuis ono

in numero risalendo la gerar hia à la Collins e Quillian)

• p. a

essorie ( hara teristi features )

Il pro esso di risposta si arti ola in due fasi. 1. Dato l'insieme di proprietà, si individua il on etto orrispondente se le possiede tutte e solo quelle. In realtà si fa riferimento ad un grado di appartenenza, analogo a quanto avviene in logi a fuzzy, insieme ad una oppia di soglie, inferiore e superiore, he entrano ome parametri del modello. 2. Il legame tra due on etti è ostituito dal grado di sovrapposizione degli insiemi delle proprietà di denizione he li aratterizzano. 13

Questo modello, oltre a spiegare il priming, ammette risposte errate nel

aso in ui venga bypassata la fase 2. Inoltre se in quest'ultima sono presi in

onsiderazione on etti generali (parte alta della gerar hia), il onfronto tra le loro proprietà è molto più velo e. Così ome avviene per la valutazione di asso iazioni false. 4.2.4

Modelli asso iativi

Il paradigma di base è quello delle reti neurali, in ui ssata la topologia della rete le sua apa ità sono odi ate dai pesi delle onnessioni ( he rappresentano nelle reti semanti he le asso iazioni tra on etti). Matemati amente risulta utile rappresentare queste onnessioni mediante una matri e N xN he ontiene tutti i pesi tra i nodi, al olabili mediante un algoritmo di apprendimento Hebbiano (si aumenta l'asso iazione tra due

on etti se sono attivati insieme da uno stimolo, fr. appendi e C). SAM

Nel modello SAM (Sear h of Asso iative Memory), quando due on etti o

upano nello stesso momento il buer della memoria di lavoro (i loro nodi

orrispondenti sono e

itati), la loro asso iazione viene rinforzata. Stessa osa avviene per le asso iazioni tra i on etti e il ontesto (variamente denito) in ui si presentano. In questo modo, al termine del pro esso di apprendimento, la forza delle

onnessioni indi a le relazioni semanti he tra on etti e tra essi e il ontesto. ACT e ACT-R

I modelli ACT (Adaptive Control of Thought) o i su

essivi ACT-R (Adaptive Control of Thought-Rational) possono essere visti e deniti ome un modo di spe i are ome il ervello stesso è organizzato, in grado da attivare i pro essi individuali per la produzione del pensiero. L'assunto più importante su ui si basano è he la onos enza umana si possa dividere in due tipi di rappresentazione irridu ibili: quella di hiarativa e quella pro edurale. La prima è rappresentata mediante hunks, ollegamenti tra hunks e loro proprietà, he insieme ostituis ono una rete semanti a dinami a. Infatti l'attivazione di un nodo de res e on il tempo dal momento del suo primo ri hiamo e aumenta inve e on il numero di ri hiami su

essivi. Risente an he di un eventuale rumore gaussiano di fondo e delle e o di attivazione dei nodi (semanti amente) vi ini. 14

I hunks sono gestiti da buers he fungono da front-end di due tipi di moduli: • per ettivi-motori, ostituis ono le interfa

e on il mondo reale (soprat-

tutto visive e manuali);

• memorie, a loro volta di due tipi:

 memorie di hiarative, he immagazzinano fatti, eventi e dati,  memorie pro edurali, he gestis ono le istruzioni per svolgere un

ompito.

Ad ogni istante il ontenuto dei buers rappresenta lo stato del sistema e la onos enza pro edurale produ e un usso di informazione a partire da esso. Un pro esso interno ri er a un dato pattern di risposta he orrisponda allo stato attuale del sistema e se lo trova lo mette in atto, modi ando il

ontenuto dei buers per l'istante su

essivo. Ben hé l'ACT sia in realtà un modello più generale della ognizione, appli ato ai pro essi di memoria ries e a riprodurne al une aratteristi he di base. Tra le altre appli azioni si ri ordano i pro essi di apprendimento, problem solving e de ision making, il linguaggio naturale e la per ezione. 4.2.5

Modelli statisti i

In questi modelli l'a quisizione di informazioni semanti he si basa su una qual he inferenza statisti a da un insieme dis reto e limitato di esperienze, riferenti ad un erto numero di ontesti. L'ingrediente fondamentale dei modelli statisti i è una matri e rettangolare he lega gli elementi ai ontesti (variamente deniti a se onda del modello). L'analisi statisti a vera e propria si appli a su questa matri e. LSA

Il modello più popolare va sotto il nome di Latent Semanti Analysis (LSA, te ni a molto usata nella produzione del linguaggio naturale), in ui la matri e è omposta da un vo abolario di parole (elementi) legate ai do umenti ( ontesti) in ui ompaiono. Ogni elemento della matri e indi a l'o

orrenza di ogni termine in ogni do umento. Dopo aver

al olato la matriP ′

e, vi si appli a laP funzione M = ln(1 + M )/ − [P (i|t) ln P (i|t)], on P (i|t) = M (i, t)/ i [M (i, t)] probabilità he si abbia un do umento data l'o

orrenza di una parola. 15

Su

essivamente si appli a una De onvoluzione a Singolo Valore (SVD) alla matri e trasformata per ridurne le dimensioni e osì individuare gruppi di rappresentazioni semanti he e asso iazioni indirette tra gli elementi. Queste trasformazioni legano la matri e di o

orrenza dei termini ad un erto numero di on etti ( lustering e lassi ation ) e questi ai do umenti, pesando ogni termine on la propria abilità di predire un ontesto. A questo punto ogni elemento è rappresentato in memoria da un vettore ontestuale e il grado di similitudine semanti a tra due termini è dato sempli emente dal oseno dell'angolo tra i due vettori ( i si basa sul fatto he termini simili ompaiano sempre in ontesti simili). Mediante LSA possono essere arontati diversi ompiti di grande interesse: • omparazione di do umenti in uno spazio ontestuale; • individuazione di do umenti simili an he se s ritti in lingue diverse,

sulla base di un pi

olo insieme di do umenti tradotti;

• individuazione di relazioni tra termini (sinonimia e polisemia); • ri er a di do umenti a partire da parole hiave, passando però in uno

spazio ontestuale in ui si onsiderano le anità semanti he tra i termini.

Questi modelli presentano diverse limitazioni: • le dimensioni rimanenti dopo l'appli azione della SVD possono esse-

re di ili da interpretare in un linguaggio naturale (mentre sono ben denite matemati amente);

• il modello LSA qui des ritto si basa su una ipotesi ergodi a se ondo

la quale parole e do umenti formano un modello Gaussiano ongiunto, mentre nei testi reali è stata osservata una distribuzione Poissoniana.

HAL

Nei modelli he vanno sotto il nome di Hyperspa e Analogue to Language (HAL) gli elementi sono parole e i ontesti sono l'insieme delle parole he sono loro adia enti in un testo. La matri e di o

orrenza in questo aso è quadrata (N xN on N numero di parole nel vo abolario) e il ontesto è dato da un parametro esterno (normalmente le die i parole attorno a quella data). Gli elementi della matri e sono una funzione del numero di volte in ui due parole appaiono ontemporaneamente nello stesso ontesto e della loro 16

distanza re ipro a (tipi amente ogni in remento è dato da D = 11 − d on d distanza tra le parole). Dopo aver eventualmente appli ato la SVD alla matri e, la distanza semanti a tra due termini è data dal oseno tra i vettori ontestuali he li rappresentano (questa volta si suppone he termini simili appaiano insieme alle stesse parole). 4.3

Appli azioni e uriosità

...

17

Appendi e A Spreading a tivation È un metodo di ri er a all'interno di una rete asso iativa, onsistente nell'inizializzare un gruppo di nodi settando un valore dell'attivazione e propagando iterativamente quest'ultima all'intera rete, attraverso i nodi onnessi ai primi. Normalmente l'attivazione de res e man mano he i si allontana dai nodi di origine. Un sempli e algoritmo di questo tipo può essere s hematizzato ome segue. 1. Topologia della rete: N nodi, ognuno asso iato ad un valore reale A ∈ [0, 1], ollegati da M links, ognuno on un peso W ∈ [0, 1]. 2. Settaggio dei parametri: una soglia di attivazione F ∈ [0, 1] e una di de adimento D ∈ [0, 1]. 3. Inizializzazione: tutti i nodi on A = 0, tranne un pi

olo gruppo (solitamente un solo nodo) on A > F . 4. Per ogni nodo on A > F , al olo la nuova attivazione dei nodi ad esso

ollegati mediante la formula A[j] = A[j] + A[i] · W [i, j] · D, onsiderando un normalizzazione per valori negativi e valori maggiori di 1.0 (normalmente in un i lo un nodo s ari a una volta sola, an he se è possibile modi are l'algoritmo ammettendo s ari he ripetute o i li di s ari a). 5. Si ripete il punto 4 no a he non i sono più nodi attivati, oppure no al raggiungimento di uno stato dinami o stabile della rete.

18

Appendi e B Priming In psi ologia on priming si denis e quel fenomeno per il quale l'esposizione ad uno stimolo ad un erto tempo inuenza la risposta ad uno stimolo orrelato ad un tempo su

essivo. Normalmente questo fenomeno è onsiderato la prova dell'azione della memoria impli ita. Qualitativamente si immagina he alla presentazione del primo stimolo si attivi un ir uito neurale he su

essivamente sarà più pronto a rispondere al se ondo stimolo, se questo risulta

orrelato al primo. Per esempio si ris ontra he è più fa ile ri ordare qual osa nella forma in

ui si è imparato (uditiva, visiva o altro). Se ne individuano due tipi: • on ettuale (riguarda il signi ato dello stimolo ed è legato all'aspetto

semanti o del ompito da svolgere)

• per ettivo (si basa sulla ed è sensibile alla forma e alla modalità dello

stimolo)

19

Appendi e C Apprendimento Hebbiano La teoria Hebbiana des rive un me

anismo basilare della plasti ità sinapti a per ui un aumento dell'e a ia sinapti a deriva da una ripetuta e persistente stimolazione della ellula postsinapti a da parte di quella presinapti a. Dal punto di vista delle reti neurali arti iali, il prin ipio di Hebb des rive un metodo per determinare ome alterare i pesi tra i neuroni durante la fase di apprendimento. Il peso della sinapsi viene aumentato se i due neuroni ai suoi estremi si attivano simultaneamente, ed è ridotto altrimenti. Nodi he tendono ad essere entrambi positivi o negativi nello stesso momento avranno forti pesi sinapti i dello stesso segno. Questo prin ipio generale fornis e il metodo più sempli e per la modi a dei pesi di una rete e per questo è relativamente fa ile da implementare in una simulazione, ma ne limita le appli azioni. Oggi si usa il termine apprendimeno hebbiano per un qualsiasi metodo matemati o di modi a dei pesi delle sinapsi, an he diverso da quello di base appena des ritto. E

o al uni esempi di possibili traduzioni matemati he del prin ipio: • wij = xi xj • wij =

1 n

Pp

k=1

• ∆wi = ηxi ·

xki xkj

P

j

wj x j

20

Related Documents

Memoria Semantica
December 2019 14
Semantica Lexical8
June 2020 8
Semantica Scribd
June 2020 11
Semantica La Palabra.docx
November 2019 12
Test Semantica 9
July 2020 16

More Documents from "Stanica Laura"