Subject: Psicologia/Morale [dagli psicologi ai filosofi] Date: Tue, 13 Nov 2007 08:19:17 GMT From: L Organization: [Infostrada] Newsgroups: it.cultura.filosofia Poiché il tema in subject potrebbe essere trattato anche da chi si interessa di filosofia, mi piacerebbe sapere che ne pensate .. da it.discussioni.piscologia: Subject: Re: Psicologia. Morale Date: Mon, 12 Nov 2007 13:08:28 GMT From: L Organization: [Infostrada] Newsgroups: it.discussioni.psicologia References: 1 , 2 , 3 Silvana del Lago wrote: > > dyskolos wrote: > > > > Ma la psicologia, non si occupa forse del comportamento *astenendosi* > > > dal giudizio? dal giudizio morale? > > > > > > > > Sì, per come la vedo io la psicologia come scienza dovrebbe evitare guidizi > > di qualsiasi tipo. Essa si dovrebbe limitare (ma non è poco!) a spiegare e > > descrivere. Descrivere e spiegare anche come si forma il senso della > > morale, questo sì. > > E come si forma? > Mi pare che sia anche in relazione a un "gruppo sociale", nel senso che > ci sono morali che presentano differenze in gruppi sociali differenti... > Vorrei proporre un supplemento di riflessione. Per mostrare *il design*(sintesi) della "morale" vorrei proporre un parallelo con la programmazione nel linguaggio artificiale (software). Nelle 3 leggi della robotica di Asimov si dice: 1. Un robot non può recare danno a un essere umano, né può permettere che, a causa del suo mancato intervento, un essere umano riceva danno. 2. Un robot deve obbedire agli ordini impartiti dagli esseri umani, purché tali ordini non contrastino con la Prima Legge. 3. Un robot deve proteggere la propria esistenza, purché questa autodifesa non contrasti con la Prima e la Seconda Legge. Legenda: Le parentesi quadre " [ ]" indicano le persone. Ora quando una macchina è accesa (lavora), [un essere è vivo], è sia in attività analitica (esamina gli input) [esamina i fatti] è sia in attività di sintesi (azioni generate dalla osservanza della funzione di trasferimento, o dalla programmazione software) [propone ciò che gli sembra opportuno, se non è dissociato] La scienza nel costruire un robot, un automa, una macchina per la verniciatura, etc, non si interessa solo della capacità analitica del sistema artificiale (robot/automa/etc), ma anche della *capacità di sintesi* grazie al design o del progettista o ***della macchina stessa*** se la macchina è stata programmata per avere *intelligenza artificiale*, per esempio metodi di apprendimento. Dove nascono le dissimiglianze (tra l'automa e l'essere umano)? Laddove, come affermava Chomsky, l'automa non dovrebbe essere messo in grado di produrre -"da se"- regole su/con cui agire. Cioé solo all'uomo -finora- è dato di darsi delle regole. Se investighiamo l'apprendimento, l'apprendimento è una modalità in grado -però- di mutare le regole con cui doveva agire la macchina quando è stata progettata!(oppure un sistema come le regole di Asimov, realizzano la stessa cosa, visto che lasciano un margine). E' nella disponibilità del designer umano -comunque- un processo di estrapolazione dei "limiti" entro cui far navigare -in autoconfigurazione- (sotto il solo potere della macchina, avendoglielo delegato) le risposte possibili. L'uomo quindi fissa una sorta di confine (assoluto) e lascia un "relativismo decisionale" all'automa. Se vogliamo è una sorta di parallelo alla morale che vede un Dio arbitro -sul male assoluto- e l'uomo nella capacità di proporre mali che -al più- possano essere relativi. Quindi l'uomo per principio di responsabilità -nel caso artificiale dell'intelligenza- si pone in uno *stato supervisivo*, come si dice anche nella teoria del controllo (o nei processi di supervisione degli arbiter, nel software). Freud identifica tale stato supervisivo (nel caso umano) nel "super Io", che però fa discendere quasi esclusivamente -> dall'ambiente, quindi da forme di condizionamento *esterne al soggetto* che "subisce" tali condizionamenti. Ci sarebbe ingenuamente da domandarsi .. da chi *erediti* tali modelli e prescrizioni (la società) .. come il fare la pipì o popò nei luoghi deputati .. Sembrerebbe che si possa intuire -nell'interpretazione materialistica della storia- che ciò possa essere spiegato con la capacità di "autoconfigurazione della materia in sè", che sceglierebbe dei percorsi preferenziali (quasi in modo ineluttabile) -poiché- il reale -> sarebbe primigeniamente caotico, ma proprio il caos genererebbe -darwinisticamente- un percorso evolutivo, anche se per caso. La matassa -come si vede- da questi brevi accenni -> è abbastanza ingarbugliata, ed a esser confusa dalla comprensione piena non sei soltanto tu .. : - ) C'è persino chi -nella scuola americana- si è preso la briga di calcolare la probabilità che (in un tempo limitato quale quello dalla formazione solida del pianeta terra) "sia possibile la vita" come semplice configurazione occorsa -per caso- tra quelle possibili. Naturalmente sembrerebbero molto scarse. Un po' come pretendere che si formi la "divina commedia" lanciando -nel vento- lettere che si debbano ordinare (per caso). Da qui è recente la teoria di una sorta di "Intelligent Design", anziché di una evoluzione casuale. Non è che tale teoria sia assestata, visto che pone il problema del "libero arbitrio" in maniera ancora più forte che la teoria dell'ambiente come sorgente casuale (che con il caos sia causa) della configurazione finale. Ma ora la panoramica mi sembra un po' più completa -> di come le tessere di questo mosaico .. sono ancora non tutte al loro posto. Del resto la scienza prevede una attività di ricerca e di modellicizzazione. Quindi sono benvenuti anche suggerimenti di come migliorare quello che Popper chiamava il "carattere autocorrettivo della scienza" spiegando a cosa acceda -la scienza, la vita- per mostrarsi come la vediamo: se al caso, o al design, o cosa altro. Ciao Silvana, Lino