FORME
Workshop per ricercatori
In questa sezione sono riportati tutti i workshop gratuiti offerti a persone che svolgono attività di ricerca per lavoro, principalmente accademici.
METODI PER LO SVILUPPO DI FORME BREVI DI TEST DI
PRESTAZIONE TIPICA
Carlo CHIORRI, Università degli Studi di Genova
Edizione I: 7 marzo 2025
La misura delle variabili psicologiche con test e questionari standardizzati è una componente essenziale della pratica clinica e della ricerca ed è noto che a un maggior numero di item corrisponde una maggiore attendibilità e una migliore definizione operazionale del costrutto. Tuttavia, ragioni pratiche possono impedire l’impiego di strumenti troppo lunghi, per cui può essere necessario svilupparne forme brevi. Il metodo tradizionale è quello di selezionare per la forma breve gli item con le saturazioni maggiori sul fattore di appartenenza, ma questo approccio tende a selezionare item altamente correlati e omogenei e quindi a limitare l’ampiezza del costrutto esaminato. In questa presentazione verranno descritti alcuni metodi di abbreviazione degli strumenti psicometrici che consentano di mantenere un’adeguata copertura
del dominio di contenuto del costrutto e al contempo garantire adeguate proprietà psicometriche.
PERSON-CENTERED APPROACH E STUDIO DEL
CAMBIAMENTO: LA LATENT TRANSITION ANALYSIS
Angela SORGENTE, Università Cattolica del Sacro Cuore
Edizione I: 8 novembre 2024
Con il termine “person-centered approach” si fa riferimento a tutte le analisi che assumono che il proprio campione sia composto da soggetti eterogenei, ovvero che sia possibile classificare questi soggetti in gruppi diversi. Questi gruppi (definiti “classi” o “profili”) vengono creati sulla base delle risposte che i soggetti danno ad una lista di item o variabili osservate. I soggetti che hanno pattern di risposta simili vengono raggruppati nella stessa classe e distinti dai soggetti che hanno pattern di risposta diversi (altre classi). Nel caso si abbiano a disposizione dati longitudinali, l’approccio person-centered offre importanti opportunità alla psicologia e alle scienze sociali. Un esempio è la Latent Transition Analysis che permette sia di classificare il soggetto in una specifica classe ad ogni tempo dello studio, sia di verificare se il soggetto tra un tempo e il successivo ha effettuato una “transizione” da una classe all’altra. A differenza delle analisi longitudinali solitamente utilizzate in psicologia che concepiscono il cambiamento come un processo quantitativo (es. l’altezza di un bambino cambia gradualmente nel tempo aumentando in termini quantitativi), la Latent Transition Analysis offre l’opportunità di studiare il cambiamento come processo qualitativo, ovvero offre l’opportunità di mappare le transizioni da uno stadio (classe) ad un altro che è qualitativamente diverso dal primo. Il cambiamento qualitativo è molto presente nella teoria psicologica, basti pensare al modello degli stadi dello sviluppo cognitivo di Piaget (1973), agli stadi dello sviluppo psicosociale di Freud (1961), o agli stadi dell’identità dell’Io di Erikson (1950). E’ importante quindi conoscere una tecnica d’analisi che permette di osservare questo tipo di cambiamento. Il seminario ha l’obiettivo di presentare i fondamenti della Latent Transition Analysis, illustrandone diverse esemplificazioni in ambito psicologico.
TCT E IRT: L’UTILITÀ DI UN APPROCCIO INTEGRATO
Caterina PRIMI, Università degli Studi di Firenze
Edizione I: 11 ottobre 2024
I Modelli dell’Item Response Theory (IRT) rappresentano un approccio psicometrico che consente di misurare i tratti latenti quantificando la probabilità di rispondere al test in funzione del livello di tratto posseduto e delle caratteristiche degli item che compongono il test. Nato nell’ambito dei test di performance, negli ultimi anni tale approccio è stato applicato per l’analisi delle proprietà psicometriche di vari strumenti in ambito clinico-diagnostico, permettendo quindi un’indagine più sofisticata rispetto ai tradizionali metodi utilizzati nell’ambito della Teoria Classica dei Test (TCT). Rispetto a questa, infatti, l’IRT permette uno scaling centrato sia sul soggetto che risponde che sulle proprietà psicometriche dell’item, un approccio alla misurazione di tipo probabilistico, ed una concezione di attendibilità in termini di capacità informativa non costante dello strumento per i diversi livelli di tratto misurati. Nonostante l’ampia diffusione dei modelli IRT per l’analisi delle proprietà psicometriche degli strumenti troviamo ancora e spesso utilizzata la TCT. In questa presentazione attraverso alcuni esempi vedremo proprietà e limiti di ciascun approccio ma anche i vantaggi di un utilizzo integrato nello studio delle proprietà di uno strumento.
POCHI MA BUONI: SVILUPPO DI FORME BREVI CON
I MODELLI DELL’ITEM RESPONSE THEORY
Ottavia EPIFANIA, Università degli Studi di Padova
Edizione I: 27 settembre 2024
Date le dettagliate informazioni fornite a livello sia della persona che del singolo item, i modelli Item Response Theory (IRT) rappresentano strumenti preziosi per abbreviare i test. Questa presentazione illustra alcuni dei procedimenti più utilizzati per lo sviluppo di forme brevi di test in un framework IRT. In particolare, vengono illustrati i meccanismi sottostanti sia al testing adattivo per lo sviluppo di forme brevi personalizzate in base alle abilità di ogni persona sia al procedimento tipico impiegato per lo sviluppo di forme brevi cosiddette “statiche” (uguali per tutti i rispondenti). Inoltre, vengono presentati anche due procedimenti recentemente introdotti per lo sviluppo di forme brevi statiche. Il primo si basa sull’informazione che ciascun item fornisce rispetto a diversi livelli di tratto di interesse (denominati theta target), ottenuti mediante la segmentazione del tratto latente in intervalli. Il numero di intervalli dipende dal numero di item che si vogliono avere nella forma breve. Di conseguenza, la lunghezza della forma breve deve essere nota in anticipo. Il secondo procedimento si basa su un algoritmo “intelligente” che seleziona gli item in base alla distanza tra una test information function definita a priori e una test information function temporanea, calcolata con gli item aggiunti uno alla volta ad ogni iterazione. L’algoritmo si ferma quando l’aggiunta di un nuovo item non riduce la distanza assoluta tra la funzione di informazione del test definita a priori e quella temporanea. La presentazione è sostenuta da esempi pratici ottenuti con il pacchetto R shortIRT.
INTRODUZIONE AI MODELLI LONGITUDINALI INTENSIVI
Michela ZAMBELLI, Università Cattolica del Sacro Cuore
Edizione I: 06 giugno 2024
Daily Diary, Experience Sampling Methods, Ecological Momentary Assessments, Social Interaction Methods; sono solo alcuni dei disegni di ricerca che ricadono nella categoria dei “disegni longitudinali intensivi”. Questa tipologia di disegni a misure ripetute permette di indagare il funzionamento dei processi psicologici nella vita quotidiana delle persone, monitorando frequentemente durante la giornata il cambiamento di
atteggiamenti, comportamenti e reazioni fisiologiche in ogni individuo. L’incremento esponenziale del loro utilizzo nella ricerca psicologica e sociale è favorito dallo sviluppo di tecnologie e dispositivi che ne facilitano l’applicazione in un setting ecologico, e dallo sviluppo di modelli statistici che consentono di valorizzare la ricchezza dei dati e la loro struttura multilivello.
IL SOFTWARE JAMOVI: UN’INTRODUZIONE
Andrea BONANOMI, Università Cattolica del Sacro Cuore
Edizione I: 23 maggio 2024
Nel corso del seminario i partecipanti saranno guidati all’utilizzo delle principali funzioni del software free per l’analisi quantitativa Jamovi. Verranno forniti gli strumenti per installazione, configurazione e gestione del software, la gestione di database e l’analisi dei dati con le principali tecniche statistiche. Il seminario avrà un carattere pratico e le procedure verranno mostrate attraverso base dati esempio. Verranno inoltre evidenziati punti di forza e debolezza del software in comparazione con i principali programmi solitamente utilizzati nelle scienze sociali e applicate.
INTRODUZIONE ALLA META-ANALISI
Elisabetta CROCETTI, Alma Mater Studiorum Università di Bologna
Edizione I: 12 aprile 2024
Il seminario fornirà una introduzione all’importanza della meta-analisi per la ricerca scientifica. Attraverso un approccio step-by-step verranno presentate le fasi necessarie per progettare e completare una meta-analisi: Definizione del problema e dei criteri di inclusione; Ricerca, selezione e codifica degli studi primari; Preparazione del database meta-analitico e analisi statistiche; Valutazione del publication bias e Pubblicazione dei risultati.
Nel trattare ogni fase verranno discusse le linee guida e le best practice disponibili.
VALUTAZIONE DELLA BONTÀ DELL’ADATTAMENTO
E CONFRONTO TRA MODELLI NEI SEM
Claudio BARBARANELLI, Sapienza Università di Roma
Edizione I: 22 marzo 2024
La valutazione della bontà deII'adattamento(goodness offifl nei Modelli di Equazioni Strutturali rappresenta il “momento” cruciale in cui si decide della vita o della morte del modello che è stato testato. Se il chi quadrato è significativo, il modello è morto, se è non significativo possiamo stappare le nostre bottiglie di spumante. Ma siamo sicun che sia propno così? Eppure, ancora oggi è capitato di assistere sul gruppo SEMNET alla ennesima puntata della diaviba tra i puristi del “chi quadrato o morte” e i praticoni che guardano con uno sguardo più relativista al valore d› tale indice, e che si sporcano le mani con altre misure o procedure alternative.
Il dìbattìto sulla valutazione del it andrebbe affrontato in modo meno manicheo soprattutto alla Iuce della continua espansione dei SEM in aree che originariamente erano escluse dai SEM (si pensi ad esempio alle analisi che prevedono la presenza di variabili latenti catego‹iaIìJ. In questa pre5entazione cercherò di a&ontare alcuni temi che storicamente hanno nguardato il tema della valutazione del fu prestando anenzione ad alcune tematiche di 6ontiera e ad alcuni paradossi Che ancora non trovano spiegazione.
Rivoluzione collaborativa: sfide e opportunità della scienza aperta a inizio carriera
Giulia CALIGNANO, Università degli Studi di Padova
Edizione I: 23 febbraio 2024
Il presente contributo mira ad esplorare le dinamiche e le prospettive offerte dalla scienza aperta (open science) con un particolare sguardo alle ricercatrici e ai ricercatori a inizio carriera al tempo della rivoluzione collaborativa. A partire da alcuni esempi di progetti multilaboratoriali in psicologia, il seminario ha lo scopo di illustrare come un approccio collaborativo alla ricerca possa fungere da catalizzatore per lo sviluppo individuale e allo stesso tempo aumentare la credibilità delle scienze cognitive e psicologiche, permettendo di costruire conoscenze e procedure condivise, pur considerando le tradizioni di ogni specifico laboratorio.
In particolare, il seminario si sofferma (1) sul processo che porta dall’ideazione alla realizzazione di uno studio multilaboratoriale; (2) sulle opportunità a cascata che derivano dei progetti multilaboratoriali (multilab spin-off projects); (3) sull’approccio “multiverso” all’analisi dei dati nei progetti multilaboratorio.
Il seminario non ambisce ad essere una lezione ma una discussione aperta per condividere esperienze scientifiche e consigli pratici. L’obiettivo primario è promuovere un dibattito sulla ricerca collaborativa, soprattutto per chi è all’alba della carriera scientifica, in quanto facilita la creazione di ipotesi di ricerca informative per la teoria e utili per la società, contribuendo all’integrazione tra metodo e teoria attraverso un dialogo interdisciplinare.
Lo studio del cambiamento nei modelli longitudinali con i cross lagged panel model
Semira TAGLIABUE e Michela ZAMBELLI, Università Cattolica del Sacro Cuore
Edizione I: 28 settembre 2023
I modelli longitudinali si sono diffusi nell’ambito della ricerca nelle scienze sociali e psicologiche quali metodi privilegiati per osservare le dinamiche di cambiamento dei processi psicologici. Diversi approcci statistici e modelli psicometrici sono stati sviluppati per analizzare la complessità dei dati raccolti con disegni a misure ripetute. In questo seminario verranno presentati i Cross-Lagged Panel Model (CLPM), modelli di equazioni strutturali che consentono di esaminare le relazioni di causa-effetto reciproco tra variabili misurate in diverse fasi temporali controllando per l’effetto del tempo. Partendo dalle basi concettuali, il seminario guiderà i partecipanti attraverso le fasi di costruzione di un modello CLPM con variabili osservate, la stima dei parametri e la valutazione dell’adattamento.
Strumenti per l’open science: come rendere la ricerca scientifica accessibile e riproducibile
Claudio ZANDONELLA CALLEGHER, Eurac Research Institute for Renewable Energy
Edizione I: 20 luglio 2023
Il movimento dell'Open Science sta ridefinendo la moderna ricerca scientifica. Tra i suoi elementi principali, la trasparenza e la riproducibilità dei risultati sono dei requisiti fondamentali della ricerca scientifica. Molti ricercatori, tuttavia, non conoscono le buone pratiche e gli strumenti necessari per garantire l'accessibilità e la riproducibilità dei loro risultati. Questi aspetti sono particolarmente rilevanti per la condivisione di dati e di codici usati per eseguire le analisi, elementi indispensabili della ricerca scientifica, ma che purtroppo raramente ricevono la necessaria attenzione.
In questo seminario, verranno presentate le principali "good practices" e strumenti per garantire la trasparenza e la riproducibilità dei risultati scientifici. Tra le altre cose, si parlerà di:
- Open Science Framework (OSF) - uno spazio gratuito e open-source per organizzare, collaborare, e condividere i propri progetti.
- Organizzazione dei progetti - le buone pratiche per strutturare in modo efficiente e documentare la propria repository e materiale.
- Software development tools - Git, GitHub e Docker gli strumenti gold standard utilizzati per la scrittura di codice.
Nel corso del seminario verranno forniti esempi di codici utilizzando il linguaggio di programmazione R. Tuttavia, i contenuti del seminario sono generali ed applicabili anche nell'uso di altri linguaggi di programmazione e software.
Intelligenza artificiale, reti neurali e psicometria. Una introduzione ai metodi e alle applicazioni
Davide MAROCCO, Università degli Studi di Napoli "Federico II"
Edizione I: 8 giugno 2023
Il seminario intende introdurre ad alcune tematiche connesse all'utilizzo dell'intelligenza artificiale in ambito psicometrico, sia dal punto di vista teorico sia attraverso esempi pratici. In particolare, si discuteranno:
- Le specificità dell'approccio predittivo, tipico del machine learning e dell'intelligenza artificiale, applicato a contesti psicometrici. In questo approccio, il processo che porta alla generazione dei dati è sconosciuto e l'interesse del ricercatore è quello trovare un algoritmo che sia capace di riconoscere i pattern di relazioni presenti nei dati, al fine di ottenere la migliore predizione dei valori di output per valori di input di nuove osservazioni.
- Le reti neurali artificiali e le loro molteplici architetture, che ne permettono l'applicazione in diversi contesti, inclusa la psicometria. Si approfondiranno le caratteristiche intrinseche di particolari modelli di reti neurali artificiali, interessanti in ambito psicometrico per la possibilità di generare spazi latenti strutturati in cui esplorare le relazioni tra le variabili.
Le tematiche verranno discusse ricorrendo ad esempi pratici relativi alla costruzione e analisi di scale psicometriche e alle potenzialità dell'applicazione dell'intelligenza artificiale in ambito diagnostico-valutativo.
First of all, take a look at data! Visualizzazione ed esplorazione dei dati a livello univariato
e multivariato
Massimiliano PASTORE, Università degli Studi di Padova
Edizione I: 18 maggio 2023
La rappresentazione grafica dei dati e dei risultati di una ricerca è fondamentale. Un buon grafico è in grado di fornire molte informazioni utili ed è un modo efficace e trasparente di condividere dati e risultati. Sfortunatamente, nonostante le numerose raccomandazioni anche piuttosto datate (e.g. Wilkinson, 1999), nella letteratura psicologica continuano ad essere utilizzate delle rappresentazioni poco chiare. In questa presentazione si parlerà prima di tutto dei rischi in cui si incorre con rappresentazioni non efficaci e successivamente verranno illustrati alcuni esempi alternativi di grafici in forma univariata e multivariata.
Exploratory structural equation modeling: riflessioni teoriche e sfide metodologiche
Palmira FARACI, Università degli Studi di Enna “Kore”
Edizione I: 20 aprile 2023
Il seminario “Exploratory Structural Equation Modeling: riflessioni teoriche e sfide metodologiche” mira a fornire un quadro introduttivo dell’analisi ESEM, quale tecnica capace di sintetizzare l’approccio data-driven, tipico dell’analisi fattoriale esplorativa, e l’approccio theory-driven, proprio dell’analisi fattoriale confermativa.
Il contributo si pone l’obiettivo di promuovere un uso ragionato di una metodologia che può favorire una più articolata rappresentazione della complessità dei costrutti psicologici e che può trovare applicazione nello studio della struttura dimensionale degli strumenti di valutazione e nell’ambito della più ampia modellistica psicometrica.
Le criticità e le aree di applicazione non ancora sufficientemente implementate saranno discusse al fine di incoraggiare un’analisi critica delle evidenze empiriche. Specifiche tipologie di ESEM saranno presentate come strategie utili ad ampliare l’applicabilità di tale tecnica entro quadri di analisi più complesse.
Dall’alpha all’omega: perché cambiare?
Angela SORGENTE, Università Cattolica del Sacro Cuore
Edizione I: 17 marzo 2023
La comunità scientifica in psicologia, e non solo, ha una lunga tradizione dell’utilizzo del coefficiente alpha (o alpha di Cronbach) come misura di attendibilità. Da tempo però gli psicometristi hanno dimostrato come esso non sia, nella maggior parte dei casi, un indice adeguato a stimare l’attendibilità di uno strumento di misura. Questa consapevolezza si sta recentemente diffondendo nella comunità scientifica più allargata, facendo sì che nel prossimo futuro il coefficiente alpha verrà abbandonato in favore di alternative più adeguate. Occorre quindi informarsi su queste alternative.
Il presente seminario intende dettagliare i motivi per i quali il coefficiente alpha non è una misura adeguata di attendibilità (se non in particolari condizioni). Si intende inoltre presentare il coefficiente omega come alternativa più adeguata per la stima dell’attendibilità di uno strumento. Nel seminario verrà anche mostrato come stimare il coefficiente omega attraverso l’utilizzo dei software più comunemente utilizzati in psicologia.
Un’introduzione all’analisi qualitativa con Nvivo
Giovanni ARESI, Università Cattolica del Sacro Cuore
Edizione I: 16 febbraio 2023
Nel corso del seminario i partecipanti saranno guidati nell’utilizzo delle principali funzioni del software per l’analisi qualitativa dei dati NVivo: organizzazione, codifica ed esplorazione tramite ricerche (query) della base dati. Il seminario avrà un carattere pratico e le procedure verranno mostrate attraverso una base dati esempio costituita da trascrizioni di interviste. Se lo desiderano, i partecipanti potranno lavorare su materiale testuale proprio.
Validity theories, frameworks and practices in using tests and measures: an over-the-shoulder look back at validity while also looking to the horizon
Bruno ZUMBO, University of British Columbia
Edizione I: 19 gennaio 2023
Tests and measures are widely used for decision-making, ranking, and policy purposes in the psychological, social, behavioral, and health sciences using testing, assessment, and surveys that are either individual, group, or population-based. Zumbo and Chan (2014) showed that approximately 1000 studies are published annually examining the validity of inferences and claims made from tests, assessments, and measures in these disciplines; however, many studies focus on internal structure and relations with other variables as the only sources of evidence, which have a long history in validation research, are known methodologies and have numerous exemplars in the literature. The evidence reported in Zumbo and Chan’s volume highlights a knowledge gap among many researchers about developments in validity theory in the last thirty years. Most importantly, this gap is about how to think about and apply new and emerging theories and sources of evidence intended to ferret out previously ignored, nuanced sources of invalidity. This presentation is organized into two main sections. First, with somewhat of a historical lens, I provide a brief overview of contemporary validity theories and validation practices in psychometrics. Second, I describe approaches to measurement validity that I have developed over the last 25 years: the ecological model of responding to survey or test questions and the explanation-centred approach to validation.
Un'introduzione alla latent class analysis
Angela Sorgente, Università Cattolica del Sacro Cuore
Edizione I: 23 settembre 2022
Tra le tecniche di analisi person-centered, cioè utili per individuare dei profili di persone caratterizzate da certi pattern di variabili, la Latent Class Analysis si distingue per la sua capacità di stimare delle classi latenti di persone a partire da un set di variabili categoriali. Ad esempio, sulla base di un insieme di risposte date a item categoriali, si possono individuare dei sottogruppi di persone che hanno fornito risposte simili e quindi identificare diversi profili/classi all’interno di un campione. Questa tecnica di analisi (assieme alle sue estensioni longitudinali) ha vissuto una notevole diffusione negli ultimi anni. Il seminario ha l’obiettivo di presentare i fondamenti della Latent Class Analysis, illustrandone diverse esemplificazioni in ambito psicologico.
Implicit measures
Ottavia EPIFANIA, Università degli Studi di Padova e Università Cattolica del Sacro Cuore
Edizione I: 9 giugno 2022
Throughout the past 20 years, the implicit assessment of psychological constructs has become vastly popular in social sciences. But what does implicit mean? In this seminar, an excursus on the meaning and implications of the term implicit will be provided, along with an introduction on the most common implicit measures, such as the Implicit Association Test (IAT) and the Go/No-go Association Task (GNAT). The scientific evidence and theoretical thinking that lead to the shift from the identification of implicit with the unconscious to its identification with indirect measurement will be given particular attention. A practical application with the IAT will be carried out. Specifically, the use of software Inquisit for developing the IAT will be illustrated. The IAT data will be collected and analyzed through the implicit Measures package in R.
La knowledge space theory per la valutazione formale delle conoscenze
Pasquale ANSELMI, Università degli Studi di Padova
Edizione I: 22 aprile 2022
La knowledge space theory (KST) è un approccio formale alla valutazione delle conoscenze sviluppato da Jean-Claude Falmagne e Jean-Paul Doignon negli anni ‘80. La KST fornisce una rappresentazione non-numerica, ma comunque precisa, di ciò che uno studente sa e non sa in un certo dominio disciplinare nei termini dei problemi che è in grado di risolvere e delle abilità che possiede. Alcuni dei vantaggi offerti dalla KST e dalle sue estensioni sono la valutazione adattiva delle conoscenze, la costruzione di strumenti massimamente informativi circa le abilità possedute dagli studenti, la possibilità di definire percorsi di apprendimento individualizzati e la possibilità di valutare l’efficacia degli interventi didattici nel promuovere l’acquisizione di specifiche abilità.
Incorporare le pratiche di Open Science nei propri progetti di ricerca
Cristina ZOGMAISTER, Università degli Studi di Milano-Bicocca
Edizione I: 24 febbraio 2022
L’Open Science ha varie ricadute positive per il singolo ricercatore e per la comunità scientifica in generale. Inoltre, è spesso incentivata, o persino richiesta, dagli enti finanziatori. Fare Open Science richiede alcune modifiche nel proprio modo di fare ricerca e la comunità scientifica negli ultimi anni ha sviluppato diversi strumenti per facilitare l’adozione di queste pratiche. In quest’intervento verranno presentati alcuni strumenti per l’implementazione dell’Open Science nelle proprie ricerche. Verrà inoltre descritta una nuova iniziativa italiana che ha l’obiettivo di sostenere queste pratiche, l’Italian Reproducibility Network.
Condivisione dei dati e cura delle persone nella scienza aperta: uno sguardo etico
Margherita PASINI, Università degli Studi di Verona
Edizione I: 27 gennaio 2022
La consapevolezza che i dati che derivano dalla ricerca scientifica siano una risorsa da condividere è sempre più presente nella comunità scientifica. Nel 2016 viene pubblicato nella rivista Scientific Data un articolo, curato da 53 autori, che illustra i cosiddetti principi FAIR, che riguardano dati, metadati e infrastrutture, che sono stati ripresi dalle Linee Guida del programma Horizon 2020 della Commissione Europea. Vi è dunque una spinta forte e con solide motivazioni perchè i dati che la ricerca scientifica produce siano FAIR, ovvero Findable, Accessible, Interoperable and Reusable. I benefici di questo orientamento sono evidenti: si tratta di benefici che riguardano prima di tutto la ricerca scientifica in sè, così come la comunità dei ricercatori, gli enti finanziatori, e gli stessi ricercatori che attuano la condivisione. Tuttavia, questi principi richiedono al mondo della ricerca, in particolare a coloro che fanno ricerca attraverso un processo che coinvolge persone come partecipanti, una particolare attenzione che assume connotati sia giuridici che etici. Il processo decisionale che viene attivato per garantire l’etica della ricerca, condotto anche attraverso l’operato degli Institutional Review Board (IRB), include preoccupazioni molto importanti per la protezione dei diritti dei partecipanti, e si estende anche alle responsabilità etiche che i ricercatori hanno nei confronti degli stessi partecipanti, così come della comunità accademica e della stessa comunità umana. Tali responsabilità etiche hanno il potenziale sia di limitare che di motivare la condivisione dei dati, ed è fondamentale dare spazio a discussioni e posizioni etiche che possano aiutare coloro che fanno ricerca, perchè il paradigma della Scienza Aperta sia assunto con responsabilità.
Questioni di misurazione per i dati relazionali
Semira TAGLIABUE, Università Cattolica del Sacro Cuore
Edizione I: 15 ottobre 2021
Nelle ricerche sulle relazioni interpersonali si utilizzano spesso degli strumenti self- report compilati da entrambi i partner della relazione. Questo solleva alcune questioni metodologiche e psicometriche che verranno discusse in questo seminario introduttivo. Ci sarà poi la possibilità di partecipare a un workshop a pagamento nel pomeriggio sull’analisi dell’invarianza cross-informants e cross-relazionale.
Un'introduzione alla network analysis applicata alla psicologia della personalità
Giulio COSTANTINI e Daniele ROMANO, Università degli Studi di Milano-Bicocca
Edizione I: 21 maggio 2021
I network sono stati recentemente proposti come un modello delle dinamiche di personalità che possa fungere da complemento ai modelli a variabili latenti. Durante il seminario, sono stati presentati diversi network in modo tale che permettessero di rappresentare diversi tipi di informazione. Sono stati discussi, inoltre, tecniche che permettono di combinare la network analysis e l’analisi fattoriale in modelli confirmatori. Il seminario ha incluso dimostrazioni in R.
Multilevel Modeling: Different Research Fields and Research Design
TPM special issue
Chair: Michela ZAMBELLI, Università Cattolica del Sacro Cuore
Presentations: Ben KELCEY, Angela SORGENTE, Stephanie COOK, Annalisa THEODOROU, Flora GATTI, Andrea BAZZOLI
Discussant: Semira TAGLIABUE, Università Cattolica del Sacro Cuore
Edizione I: 26 marzo 2021
In 2020 TPM (Testing, Psychometrics, Methodology in Applied Psychology) published a Special Issue in which several contributions by Italian and international scholars discussed the updated applications of multilevel modeling. This international seminar gave the opportunity to listen to authors’ point of view regarding multilevel methodology and techniques and to discuss on their future development..
Separare il segnale dal rumore: alcune conseguenze positive della crisi di replicabilità
in psicologia
Marco PERUGINI, Università degli Studi di Milano-Bicocca
Edizione I: 5 febbraio 2021
La recente crisi di replicabilità in Psicologia ha attirato molta attenzione e sta iniziando ad avere un impatto sulle pratiche di ricerca. A partire da essa, sono state indicate alcune condizioni per aumentare la probabilità di ottenere risultati replicabili. L’accento è stato posto su pratiche metodologiche e di ricerca concrete che aumentano la probabilità di progettare studi informativi e di fare inferenze corrette dai dati, aiutando quindi i ricercatori a separare il segnale dal rumore.
Il calcolo della potenza statistica mediante l'uso del tool G*Power
Pietro CIPRESSO, Università Cattolica del Sacro Cuore
Edizione I: 23 gennaio 2020
La power analysis permette di anticipare la probabilità che uno studio conduca a riscontrare effetti significativi. Viceversa, l’obiettivo di una power analysis condotta dopo aver eseguito uno studio è calcolare il power raggiunto a partire dalla constatazione dell’efficacia degli altri tre fattori del modello (dimensione campionaria, dimensione dell'effetto, criterio di significatività α, dove α è la probabilità di errore del I Tipo). Il seminario ha introdotto i partecipanti alla power analysis e alla sua applicazione tramite l'utilizzo del tool G*Power. Nel corso si è trattato in modo pratico con il software G*Power, sia la stima dell'ampiezza campionaria, sia la potenza ottenuta con una precisa analisi della misura dell'efficacia, oltre al mero valore del pvalue, in sperimentazioni scientifiche.
Il modello lineare generalizzato: modelli per variabili categoriche, frequenze e distribuzioni non normali
Marcello GALLUCCI, Università degli Studi Milano-Bicocca
Edizione I: 30 Maggio 2019
Il seminario ha presentato e discusso il modello lineare generalizzato, con particolare focus sul modello di regressione logistica, di Poisson e multinomiale. Lo scopo del seminario era quello di dimostrare come semplici nozioni mutuate dalla regressione lineare e dall’ANOVA possano essere applicate a modelli avanzati nei quali la variabile dipendente è dicotomica, categorica o esprime frequenze. Differenti software sono stati utilizzati in modo da rendere la parte pratica utile per studenti con diversi background, indipendentemente dalle competenze informatiche.
I disegni diadici e gruppali per la ricerca psicologica
Semira TAGLIABUE, Università Cattolica del Sacro Cuore
Edizione I: 29 Marzo 2019
Sono stati presentati i fondamenti della ricerca su dati diadici e gruppali affrontando il tema della non-indipendenza dei dati, i principali disegni di ricerca disponibili e facendo anche brevi accenni ai modelli per l’analisi dei dati.
Introduzione all'open science
Margherita LANZ, Università Cattolica del Sacro Cuore
Edizione I: 22 Febbraio 2019
La psicologia è andata incontro negli ultimi anni a una cosiddetta “crisi di riproducibilità” che ha comportato uno sforzo nel rendere il processo di ricerca psicologica e la comunicazione scientifica metodologicamente corretta, con elevati standard scientifici e con una trasparenza rispetto alle procedure e all’analisi dei dati. L’approccio Open Science sta portando ad un ampio dibattito in merito ai valori e alle procedure da utilizzare. Il seminario è stato una prima introduzione a questo tema presentando lo stato dell’arte e le questioni aperte per la pratica della ricerca.
Il software R: corso base
Pietro CIPRESSO, Università Cattolica del Sacro Cuore
Edizione I: 8 Febbraio 2019
Il corso base di R ha illustrato gli elementi di base per poter svolgere le analisi statistiche. Obiettivo principale è stato quello di fornire strumenti per installazione, configurazione e gestione del software necessario per implementare algoritmi accedendo a pacchetti specifici del linguaggio e fornendo le necessarie capacità di lettura e gestione dello stesso con l’uso di esempi e applicazioni pratiche.
I modelli dell'item response theory (IRT) nell'assessment psicologico
Caterina PRIMI, Università di Firenze
Edizione I: 25 gennaio 2019
I Modelli dell’Item Response Theory (IRT) sono un approccio psicometrico che consente di misurare la probabilità di rispondere al test in funzione del livello di tratto latente posseduto e delle caratteristiche degli item che compongono il test. Nato nell’ambito dei test di performance, negli ultimi anni è stato applicato per l’analisi delle proprietà psicometriche di strumenti per la valutazione clinica, permettendo quindi un’indagine più sofisticata rispetto ai tradizionali metodi utilizzati nell’ambito della Teoria Classica dei Test (TCT). Rispetto a questa, infatti, l’IRT permette una serie di vantaggi quali uno scaling centrato sia sul soggetto che risponde sia sull’item e sulle sue proprietà psicometriche, un approccio alla misurazione di tipo probabilistico, una concezione di attendibilità in termini di capacità informativa dello strumento che varia per i diversi livelli di tratto misurati.
Il software Nvivo: corso base
Andrea GUTIÉRREZ GARCÍA, Universidad Pontificia de Salamanca
Edizione I: 7 Giugno 2018
This seminar provided a comprehensive overview of NVivo, a software that supports qualitative and mixed method. It was an opportunity for participants to understand the programme and how it can be used throughout a research project, also practicing with their own data.
Goals: Know the basic operation of the program for the analysis of qualitative data, so that people who participate in the course can use it as tool that helps them with the systematization and analysis of their qualitative research projects. For this, we presented all the possibilities to carry out the research tasks, offered by Nvivo software (version 11): collection of material and data, transcription, analysis and interpretation of information obtained from texts, conversations, interviews, images, audio-visual recordings and social networks and web; and different ways of visualization of the results.
Il software Mplus: corso base
Angela SORGENTE, Università Cattolica del Sacro Cuore
Edizione I: 11 Maggio 2018
Edizione II: 12 Aprile 2019
Il seminario intende proporre una introduzione al software Mplus (Muthén & Muthén, 1998-2017) che gestisce sia analisi con variabili osservate che con variabili latenti. Nello specifico, è stato spiegato come preparare un file dati per Mplus, come scrivere la sintassi di Mplus, come interpretare l'output e come utilizzare e/o risolvere i messaggi di errore che spesso appaiano nell'output di Mplus. I modelli che sono stati eseguiti durante il corso saranno modelli di regressione (multipla e path analysis) e l'analisi fattoriale confermativa.
Oltre p<.05: statistiche migliori per inferenze migliori
Massimilano PASTORE, Università di Padova
Edizione I: 22 Marzo 2018
Negli ultimi anni si è acceso un dibattito molto intenso sul ruolo della statistica nelle scienze applicate. In particolare, questo dibattito ha coinvolto la psicologia a causa della scarsa riproducibilità dei risultati e dell'utilizzo poco aggiornato e poco consapevole della statistica. In questo seminario sono state presentate le basi dell'approccio frequentista (a cui si rifà lo schema operativo noto come Null Hypothesis Significance Testing, NHST) ed i fraintendimenti che hanno portato ad errate interpretazioni e, di conseguenza, inferenze poco affidabili e scarsamente replicabili. Inoltre, si è posta l'attenzione su approcci alternativi ormai facilmente accessibili con i vari software statistici disponibili.
Con alcuni esempi si è visto come sia possibile un utilizzo più consapevole e ragionato della statistica da cui ricavare più informazioni ed inferenze di maggiore qualità.
Modelli di invarianza di misurazione nell'ambito dei modelli di equazione strutturali per indicatori metrici e ordinali con applicazioni in Mplus
Carlo CHIORRI, Università di Genova
Edizione I: 5 Ottobre 2018
I confronti che comunemente si eseguono fra i punteggi medi a un test di gruppi indipendenti di partecipanti sono validi solo nella misura in cui il test misura gli stessi costrutti nello stesso modo in tutti i gruppi, ossia, il test possiede invarianza di misurazione. Questa assunzione tuttavia non è necessariamente sempre confermata, per cui può capitare che gli item siano gli stessi, ma la struttura fattoriale del test cambi in funzione del gruppo a cui viene somministrato. Occorre quindi valutare se le differenze medie basate sui costrutti latenti sono riflesse in ognuno dei singoli item utilizzati per misurarli. In questo seminario sono stati dapprima introdotti gli aspetti teorici dell'indagine sull'invarianza di misurazione di un test psicologico e successivamente mostrate le applicazioni in Mplus nel contesto dei modelli di equazioni strutturali per indicatori metrici e ordinali.