Információ

Az észlelési valószínűség eltérő hatásai a jelenlét és a számlálási adatok között ugyanazon a helyen

Az észlelési valószínűség eltérő hatásai a jelenlét és a számlálási adatok között ugyanazon a helyen



We are searching data for your request:

Forums and discussions:
Manuals and reference books:
Data from registers:
Wait the end of the search in all databases.
Upon completion, a link will appear to access the found materials.

Egy nagytestű, mobil állat élőhely-alkalmasságát modellezem kameracsapdákból (automatikus mozgás-/hőérzékelő kamerás állomások) gyűjtött előfordulási adatokkal (csak jelenlét - ebben az esetben nincs valós távolléti adatom). Minden kameracsapda helyen 0-tól több eseményt rögzítek.

Az ilyen adatok modellezésekor jellemzően számlálási adatokként modellezik őket, és az észlelési valószínűséget is figyelembe veszik annak érdekében, hogy csökkentsék az észlelést befolyásoló kovariánsokat, amelyek egyébként az alkalmasságot befolyásoló kovariánsokként azonosíthatók. Például egy olyan terület, ahol kevésbé valószínű az észlelés, mondjuk a sűrű növényzet miatt, összetéveszthető kevésbé alkalmasnak a növényzet szerkezete miatt, holott valójában nem így van (vagy akár az ellenkezője is igaz).

A kérdésem az, hogy ha a count változót észlelési/nem észlelhető változóként (tehát binárisként) használnák, akkor az észlelési valószínűség kevésbé lenne hatással a modellre (*a relatív alkalmasság modellezésekor, nem annak valószínűsége esemény)? azaz ha nem veszi figyelembe az észlelési valószínűséget, egy bináris válaszváltozó használata kevésbé torzított becslést adna az élőhely alkalmasságáról, mintha számlálási adatokat használna? És ha igen, miért? Nem úgy tűnik, hogy az észlelési valószínűség megváltozna, vagy homogénebb lenne a vizsgálati területen ezzel a változtatással, de úgy tűnik, hogy a hatások kisebbek lennének, ha nem erősítik meg a többszörös előfordulású észlelési valószínűség különbségeit.

Azt is megértem, hogy nem kívánatos az összes többi előfordulást kidobni, feltételezve, hogy ki tudja számítani az észlelési valószínűséget. Azért teszem fel ezt a kérdést, hogy jobban megértsem a lehetséges különbségeket a két modellezési megközelítés között az ilyen adatok használatakor, mivel mindkét módszert láttam a szakirodalomban, de nem láttam konkrétan ezzel a kérdéssel foglalkozni. Ha tudna hivatkozni bármilyen publikációra, amely rávilágíthat erre, nagyon hálás lennék.


Disclaimed: Nem igazán válasz, de túl hosszú a megjegyzéshez


Ha jól értem, ennek teljes mértékben az észlelési valószínűségtől kell függnie a teljes észlelési periódus alatt (ameddig a kamerák ki voltak kapcsolva). Ha az észlelés halmozott valószínűsége minden élőhelytípusban magas (az állat jelenléte esetén az 1-hez közelít), akkor az észlelési valószínűség nem jelenthet problémát a bináris előfordulási változó esetében. Ezt jelzi, ha vannak olyan webhelyei (kamerái), amelyek nulla vagy nagyon sok előfordulással rendelkeznek, ami azt jelzi, hogy a bináris előfordulás meglehetősen robusztus. Másrészt, ha a helyszíneken összesen 0-4 előfordulás van, rendkívül nehéz lesz elkülöníteni a nem előfordulást a véletlenszerű tényezőktől vagy a kimutathatóságtól. Feltételezem, hogy az észlelési valószínűség az élőhelyek között nem ismert (valamint az észlelés halmozott valószínűsége), de lehet, hogy megalapozott tippet tud tenni. Továbbá bináris válasz használatával teljesen kizárja annak lehetőségét, hogy pl. az élőhely minőségének hatása (például az élőhelyek közötti abundancia-különbség), mivel az 1-es vagy 13-as számokat egyaránt 1 jelenti a bináris detektálási változóban. A kérdésben arról beszélsz, hogy "relatív alkalmasság modellezése", ami azt jelzi, hogy valóban érdekel valami ehhez hasonló (relatív élőhelyminőség). Ebben az esetben úgy gondolom, hogy a bináris válasz túl durva lesz ahhoz, hogy hasznos információkat szolgáltasson.

Az egyik lehetséges játékforgatókönyv az lehet, hogy két A és B típusú élőhelye van (mindegyikben 10 kamerahely/helyszín) van egy bináris érzékelési változóval, mint például:

V: 1 1 1 0 1 0 1 1 0 1 (7 helyen található faj)
B: 0 1 0 0 1 0 1 1 0 0 (4 helyen található faj)

Ebben az esetben a faj nyilvánvalóan mindkét élőhelytípusban létezhet (ahogyan Ön kategorizálta őket), tehát a nagyobb mennyiség, ha a B-ben nullák állnak, (többek között) 1) ennek az élőhelynek az alacsonyabb foglaltságát (metapop perspektívában), 2) B minősége heterogén, amit az Ön élőhely-kategorizálása nem rögzít (tehát B részei ugyanolyan alkalmasak, mint A), 3) B-ben alacsonyabb a populáció abundanciája A-hoz képest (de ugyanaz a kimutathatóság), vagy 4) alacsonyabb kimutathatóság B-ben, mint A-ban (de ugyanaz a bőség). Nem igazán értem, hogyan lehet elkülöníteni ezeket az eseteket csak a bináris változóval, és nem hiszem, hogy a bináris észlelési változó használata bármilyen konkrét problémát megoldana a számlálási adatok használatához képest.

Ez mind nagyon kézenfekvő, de remélhetőleg hasznos ötleteket/perspektívákat adhat.


Ahhoz, hogy el tudja választani a bőséget az észlelési valószínűségtől, meg kell jelölnie az állatot. Ha ez a helyzet, akkor összeállíthat minden egyes állat befogási előzményét, és modellezheti az észlelés valószínűségét.

Tekintse meg ezt a cikket: http://www.sciencedirect.com/science/article/pii/S0006320712005071. Néhány javaslat a térbeli explicit modell használatára vonatkozóan, amikor kameracsapdákat használunk a populációs paraméterek (abundancia…) becslésére.

Kérdésére válaszolva, ha elméletileg független az észlelés egy helyen, akkor a bináris adatok használata alábecsüli az észlelés valószínűségét, de ha az észlelés függő, akkor mondjuk az állat csoportban mozog, így minden alkalommal, amikor észlel egy állatot, akkor erős egy egynél több észlelésének esélye, akkor a bináris adatok használata lenne értelme.

Remélem ez segít !

Egészségére


Megfigyelői torzítás és észlelési valószínűség a halegyüttesek víz alatti vizuális összeírásában, független kettős megfigyelőkkel mérve

A víz alatti vizuális cenzus (UVC) az egyik leggyakrabban használt módszer az árapály-halközösségek megfigyelésére. Az UVC-alapú populációbecsléseket azonban számos olyan torzítás sújtja, amelyek végső soron csökkentik az adatok diagnosztikai erejét. Az észlelési hibákat több megfigyelő alkalmazásával számoló módszerekhez való alkalmazkodás sok ilyen torzítást csökkenthet, de a korábbi tengerkutatások során kevés figyelmet kapott. Földi környezetben a kettős megfigyelő módszert sikeresen alkalmazták a láthatósági torzítás, a megfigyelői torzítás és az észlelési valószínűségek becslésére. Független kettős megfigyelős módszerrel mértük a megfigyelő típusának (önkéntesek és kutatók) és a halközösség struktúrájának hatását a két, egyidejűleg ugyanazt a keresztmetszetet vizsgáló megfigyelő észlelési valószínűségére és számolási eltérésére. Az önkéntesek által gyűjtött közösségi adatok folyamatosan gyengébb minőségűek voltak, mint a kutatók által gyűjtött adatok. Ez azonban nem volt így a domináns fajok esetében, amelyekről a kutatók és önkéntesek hasonló adatokat készítettek. Az elemzés továbbá arra utalt, hogy a ritka fajok aránytalanul hozzájárultak az UVC adatok torzításához, mivel egy faj egy felmérési területen belüli abundanciája határozta meg a kimutatási valószínűségét. Eredményeink rávilágítanak arra, hogy figyelembe kell venni az UVC alatti észlelési valószínűséget, és javasolt, hogy a jövőben az UVC-n alapuló kutatások integráljanak egy független kettős megfigyelős megközelítést. Ezenkívül az eredmények azt mutatják, hogy a megfigyelési programok megtervezésekor körültekintően kell eljárni, mivel a tapasztalatlan önkéntesek részvételének lehetővé tétele alááshatja az adatok integritását.


EREDETI KUTATÁSI cikk

Yves Bötsch 1,2 * , Zulima Tablado 1, Daniel Scherl 1,3, Marc Kéry 1 , Roland F. Graf 3 és Lukas Jenni 1
  • 1 Svájci Madártani Intézet, Sempach, Svájc
  • 2 Evolúciós Biológiai és Környezettudományi Intézet, Zürichi Egyetem, Zürich, Svájc
  • 3 Institute of Natural Resource Sciences, ZHAW Zürich University of Applied Sciences, Wnswil, Svájc

A szabadtéri szabadidős tevékenységek világszerte növekszik, és különösen a városok közelében fordulnak elő gyakran. Az erdők természetes környezet, amelyet gyakran használnak olyan tevékenységekhez, mint a kocogás, túrázás, kutyasétáltatás, hegyi kerékpározás vagy lovaglás. Az emberek puszta jelenléte az erdőben megzavarhatja a vadon élő állatokat, amelyek potenciális ragadozónak tekinthetik az embert. E tevékenységek közül sok olyan ösvényekre támaszkodik, amelyek egy egyébként összefüggő élőhelyet metszenek, és így hatással vannak a vadon élő állatok élőhelyére. Ennek a tanulmánynak az volt a célja, hogy elkülönítse a növényzet és az élőhelyszerkezet nyomvonalon keresztüli változásának hatását az ezen ösvényeket használó emberi jelenlét hatásától az erdei madárközösségekre. Ezért összehasonlítottuk a rekreációs útvonalak madarakra gyakorolt ​​hatását két, a rekreációsok által gyakran használt erdőben két ritkán látogatott erdővel. Minden erdőben páros pontszámlálást végeztünk, hogy megvizsgáljuk a madárközösség közötti különbségeket az ösvényektől közel (50 m) és távol (120 m) az ösvényektől, figyelembe véve az esetleges élőhelyi különbségeket, és a tökéletlen észlelés érdekében több fajt alkalmazva. N-keverékes modell. Megállapítottuk, hogy a bolygatott (azaz magas rekreációs szintű erdőkben) a madársűrűség és a fajgazdagság egyaránt csökkent az ösvényekhez közeli pontokon a távolabbi pontokhoz képest (� és 𢄤%), míg ilyen hatás statisztikailag nem volt kimutatható az alacsony rekreációs fokú erdőkben. Emellett arra utaló jeleket találtunk, hogy az emberi jelenlét hatásai a faj tulajdonságaitól függően változtak. Ezek az eredmények azt sugallják, hogy az ember puszta jelenléte negatívan befolyásolhatja az erdei madárközösséget az ösvények mentén. A látogatók útmutatása hatékony természetvédelmi intézkedés a kikapcsolódást kedvelők negatív hatásainak csökkentésére. Emellett a beépítetlen természetes élőhelyeken a nyomvonalépítés megakadályozása csökkentené a leghatékonyabban az emberi hozzáférést, így a zavarást.


2.3 Importálás és nulla kitöltés

Az előző lépésben két tabulátorral elválasztott szövegfájl maradt, egy az EBD-hez és egy a SED-hez. Ezután az auk_zerofill() segítségével beolvassuk ezt a két fájlt R-be, és kombináljuk őket, hogy nullával kitöltött, észlelési/nem észlelési adatokat (más néven jelenléti/hiányzási adatokat) állítsunk elő. Ha csak olvasni szeretné az EBD-t vagy a SED-et, de nem kombinálja őket, használja a read_ebd() vagy read_sampling() függvényt.

Amikor az auk bármelyik olvasási funkcióját használjuk, alapértelmezés szerint két fontos feldolgozási lépés történik a színfalak mögött. Először is, az eBird megfigyelések a fajok (pl. alfajok) vagy a fajok feletti szinteken (pl. egy madár, amelyet csak Duck sp.-ként azonosítottak) végezhetők, azonban a legtöbb felhasználásnál fajszintű megfigyeléseket szeretnénk végezni. Az auk_rollup() alapértelmezés szerint az auk_zerofill() használatakor kerül alkalmazásra, és minden olyan megfigyelést eldob, amely nem azonosítható egy faj számára, és a fajok alatt jelentett összes megfigyelést fajszintre összesíti. Az eBird csoportos ellenőrző listákat is lehetővé tesz, amelyeket több felhasználó oszt meg. Ezek az ellenőrzőlisták az adatkészleten belüli rekordok megkettőzéséhez vagy majdnem megkettőzéséhez vezetnek, és az auk_unique() függvény, amelyet az auk_zerofill() alapértelmezés szerint alkalmaz, úgy oldja meg ezt, hogy minden ellenőrzőlistából csak egy független másolatot tart meg. Végül az auk_zerofill() alapértelmezés szerint az adatok kompakt reprezentációját adja vissza, amely két adatkeret listájából áll, az egyik ellenőrzőlista adatokkal, a másik pedig megfigyelési adatokkal. A collapse = TRUE használata ezeket egyetlen adatkeretté egyesíti, ami könnyebb legyen vele dolgozni.

Mielőtt folytatnánk, néhány változót a modellezéshez hasznosabb formává alakítunk. Az időt 0 és 24 közötti decimális értékre konvertáljuk, a megtett távolságot pedig 0-ra kényszerítjük stacioner ellenőrző listáknál. Nevezetesen, az eBirdersnek lehetőségük van „X”-et beírni egy faj számlálása helyett annak jelzésére, hogy a faj jelen volt, de nem követték nyomon, hogy hány egyedet figyeltek meg. A modellezési szakaszban szeretnénk a megfigyelési_szám változót egész számként tárolni, és ennek érdekében az „X”-et NA-vá alakítjuk.


Foglaltsági modellek

Foglaltsági modell: Modell, amellyel figyelembe veszik a szervezetek tökéletlen kimutatását a felmérések során, és meghatározzák egy faj valós jelenlétének vagy hiányának valószínűségét a helyszínen. Ez úgy történik, hogy az Ön adatai alapján számszerűsítik egy faj észlelési valószínűségét egy helyen.

Háttér

A kihasználtsági modellek a Generalized Linear Mixed Effects modellek (GLMM) kiterjesztéseként is felfoghatók. A kihasználtsági modellek esetében a véletlenszerű hatásokra vagyunk kíváncsiak – ezek az értékek adják meg az előfordulás valódi állapotát. Mint ilyen, feltételezhetjük, hogy a Bernoulli-eloszlásból származnak.

Egy faj előfordulása egy adott helyen az adatok között két folyamat eredménye:
1. A faj valóban jelen van
2. A felmérésben észleli a fajt

Az észlelés hiánya azonban vagy az eredmény:
1. a faj nem található meg a helyszínen, vagy
2. nem észlelte a fajt a helyszínen.

A kihasználtsági modellekben ezt a bizonytalanságot számszerűsítjük az észlelés során. Az értéket észlelési valószínűségnek nevezzük ((p)) . Ha (p = 1) , akkor tökéletesen detektáltunk egy fajt. Azonban gyakran nehéz az esetek 100%-ában tökéletes észlelést biztosítani. A legtöbb esetben az észlelési valószínűség kisebb, mint 1 ((p<1)) .

Miért érdemes kihasználtsági modelleket használni? (Kery 2010 20. fejezetéből)

  1. a fajok eloszlását alulbecsüljük, ha p < 1
  2. A kovariáns kapcsolatok becslései nulla felé torzulnak, amikor p < 1
  3. A fajok megtalálásának nehézségét befolyásoló tényezők a fajok előfordulásának prediktív modelljébe kerülhetnek

Követelmények/Feltételezések

  1. Ismételt felmérések egy telephelyen a „bezárás” időszakán belül
  2. A webhelyeket térben és függetlennek kell replikálni
  3. Az észlelési valószínűség állandó vagy kovariánsokkal magyarázható.
  4. A foglaltság valószínűsége állandó, vagy kovariánsokkal magyarázható

Alapmodell forma

(Z_i sim Bernoulli (psi_i)) A biológiai folyamat valódi állapotot eredményez
(y_ sim Bernoulli(Z_i * p_)) A megfigyelési folyamat megfigyeléseket eredményez (ez az adat)

A (Z_i) a valós foglaltsági állapot (psi) paramétere, amely leírja a valódi állapotot, és egy Bernoulli-eloszlásból származik. Ez kovariánsokkal modellezhető.
(p_) az észlelési valószínűség
Ezeket az értékeket a modell adatai alapján becsüljük meg

Ugyanazokat vagy különálló kovariánsokat is beilleszthet a modell észlelési és foglaltsági összetevőibe, hasonlóan a néhány héttel ezelőtti Zero-Inflated modellekhez.

Kiterjesztések

A kimutathatóság problémája tovább súlyosbodik a bőség mérése során. Amikor a jelenlétről/hiányzásról az egyedek számára lép, annak a valószínűsége, hogy minden egyedet megszámolt (észlelt), távolabb kerül a nullától. A kihasználtsági modell kiterjesztéseként az N-keverék abundancia modellje a fajon belüli egyedek tökéletlen kimutatását magyarázhatja. Ehhez egyszerűen feltételezzük, hogy a helyi abundanciát egy Poisson-eloszlás írja le.

(N_i sim Poisson(lambda)) 1. Ökológiai folyamat, amely valódi populációméretet eredményez

(y_|N_i sim Binomiális(N_i, p)) 2. A megfigyelési folyamat számokat ad

(lambda) a bőség változását írja le a helyszíneken. Ez a paraméter kovariánsokkal modellezhető, hogy leírja a (N_i) eltéréseit.
(y_) a megfigyelt számok, tekintettel a valós populációméretre, (N_i) a (p) észlelési valószínűségű egyedek észlelésének az eredménye.

További olvasnivalók a Kery 2010 21. fejezetében találhatók.

Elemzési példa

Ebben a példában az általam (és mások által) 2016-ban gyűjtött Costa Rica-i madársáv-adatokat fogjuk használni. A példák egyszerű Foglaltsági modelleket használnak Korner-Nievergelt et al. 2015. Két különböző adatobjektum kerül felhasználásra, az egyik az Ochre-bellied Flycatcher (OBFL) és a másik a Violet Sabrewing (VISA) számára. Minden adatobjektum 6 felmérés (j ismétlés) jelenléti/hiányzási adatait tartalmazza 18 helyszínen, valamint a szabványosított Julian-dátumot 2016-ból.

Az rstan csomag a Stannel való interfészre szolgál, és a blmeco csomag, amely a forrás függvényeit tartalmazza Korner-Nievergelt et al. 2015.

Állítsa be a munkakönyvtárat, töltse be a csomagokat és a két különálló adatobjektumot.

Kezdjük az OBFL adatobjektum feltárásával, amely a Stanrel való együttműködéshez van kötve.
Azt látjuk, hogy 18 helyszín (N), 6 ismétlés minden helyen (J), megfigyelt foglaltság szinte minden helyen (x), és szabványosított mintavételi dátum Julian-dátum (DAY).

Most megírjuk a stan modellt. Ez a következőtől módosult Korner-Nievergelt et al. 2015.

A modellnek két fő összetevője van. Az első komponens a foglaltsági modell, amely leírja az OBFL valós foglaltsági állapotát a 18 helyszínen. Az egyszerűség kedvéért egy csak elfogó modellt használunk, anélkül, hogy a 18 helyen valós foglaltsági állapotot leíró kovariáns lenne.

A modell második része az észlelési folyamat, amely minden felmérési ismétlésnél meghatározza az észlelési valószínűséget a 18 helyszínen. Mivel ennek a példának a középpontjában az észlelési valószínűség áll, belefoglaltuk a kovariánsokat, a Julian-dátumot és annak kvadratikusát. Ennek megfelelően azt várjuk, hogy az észlelési valószínűséget az év időszaka befolyásolja.

(logit(p_) = eta_0 + eta_1 * DAY_ + eta_2 * DAY_ * DAY_)
(logit(psi_i) = alpha_0) Feltételezi, hogy a foglaltság egyenlő az összes webhelyen

Most illesszük az általunk írt kihasználtsági modellt

Szemmel láthatóan nehéz Stan-modelleket futtatni, miközben Rmarkdownban próbálunk kötni. A modell kimenete elmentésre kerül, így felhasználásra betölthető. Alternatív megoldásként futtathatja a kódot az Rmarkdownban Kötés nélkül vagy az R konzolon.

Egyelőre csak a számítógépemen futtatott és feltöltött adatkimenetet töltjük be.

A modell futtatásakor hibaüzenetek jelenhetnek meg. Az, hogy hogyan kell ezt kezelni, attól függ, hogy mit mond az üzenet. A fenti modell nyelveinek egy része elavult, de a modellnek megfelelően kell működnie.

Ellenőrizze modellparamétereink konvergenciáját

Gyakran érdekel bennünket, hogy megértsük, hogyan változik az észlelési valószínűség a detektálási kovariánsainkhoz képest. Ennek megoldására ábrázolhatjuk az előre jelzett észlelési valószínűséget a kovariáns értékeink tartományában. Itt arra vagyunk kíváncsiak, hogyan változik a Julian-dátum vagy az évszak függvényében.

Ábrázolja az észlelési valószínűség közötti előrejelzett összefüggést a szezon során.

Ehhez görgessen végig és szorozza meg a szimulált értékeket dátumokkal. Mivel értékeink a logit skálán vannak, értékeinket a plogis függvény segítségével átalakítjuk, hogy a normál skálára helyezzük őket.

Ahogy az várható volt, az OBFL észlelési valószínűsége nagyon magas. Ez egy gyakori madár, amely a legtöbb mintavételi időpontban a legtöbb helyen megtalálható.

Végül megvizsgálhatjuk, hogy a modellünk alapján az OBFL várhatóan hány helyen fog előfordulni, és összehasonlítjuk a ténylegesen megfigyeltekkel.

Látjuk, hogy nagyon hasonlóak. Mintavételünk elegendő volt erre a fajra.

Most egy sokkal kevésbé elterjedt fajt tekinthetünk meg. A Violet Sabrewing az erdősebb területeket kedvelő kolibri faj, de a mezőgazdaságban is megtalálható.

Ugyanezt a modellt fogjuk használni, hogy megvizsgáljuk, hogyan változik az észlelési valószínűség ennél a fajnál a mintavételi szezon során.

Az észlelési valószínűség és a diagram előrejelzése

Sokkal kisebb észlelési valószínűséget látunk ennél a fajnál, ami arra utal, hogy még azokon a napokon is, amikor nem fogtuk be ezt a madarat, jelen lehetett a helyszínen.

Nézzük meg a VISA által elfoglalt helyek előrejelzett számát, illetve a foglalt helyek megfigyelt számát.

A modell előrejelzése szerint a VISA a helyszínek 82,65%-án van jelen, míg csak a helyszínek 66,67%-án volt megfigyelhető. Ez egy jó példa arra, hogy az észlelési valószínűség figyelembevétele milyen fontos lehet egy faj teljes elterjedésének megértéséhez a webhelyeken.


Példa

Nézzünk meg egy esetet, amikor a véletlenszerű hatások modellezése hasznos lehet. Tegyük fel, hogy irányítószám alapján szeretné megbecsülni az amerikai háztartások átlagos jövedelmét. Nagy adatkészlettel rendelkezik, amely a háztartások jövedelmének és irányítószámainak megfigyelését tartalmazza. Néhány irányítószám jól szerepel az adatkészletben, de másoknak csak néhány háztartása van.

A kezdeti modellben valószínűleg az egyes ZIP-ekben szereplő átlagos bevételt veszi figyelembe. Ez akkor működik jól, ha sok adata van egy ZIP-hez, de a rosszul mintavételezett ZIP-ek becslései nagy eltéréseket mutatnak. Ezt mérsékelheti egy zsugorodásbecslő (más néven részleges összevonás) használatával, amely a szélsőséges értékeket az összes irányítószám átlagos bevétele felé tolja.

De mekkora zsugorítást/összevonást kell tennie egy adott ZIP esetén? Intuitív módon ennek a következőktől kell függnie:

  1. Hány megfigyelés van abban a ZIP-ben
  2. Összességében hány megfigyelése van
  3. Az egyéni szintű a háztartások jövedelmének átlaga és szórása az összes irányítószám között
  4. Az csoportszintű a háztartások átlagos jövedelmének eltérése az összes irányítószám között

Ha az irányítószámot véletlenszerű hatásként modellezi, akkor az összes irányítószámra vonatkozó átlagos jövedelem becslése statisztikailag megalapozott zsugorodásnak lesz kitéve, figyelembe véve a fenti tényezőket.

A legjobb az egészben az, hogy a véletlenszerű és kevert effektusok modelljei automatikusan kezelik (4), a variabilitás becslését a modellben szereplő összes véletlenszerű hatásra. Ez nehezebb, mint amilyennek első pillantásra tűnik: megpróbálhatja a mintaátlag szórását az egyes ZIP-eknél, de ez nagy torzítás lesz, mert a különböző ZIP-ek becslései közötti eltérések egy része csak mintavételi szórás. A véletlen hatások modelljében a következtetési folyamat figyelembe veszi a mintavételi variancia mértékét, és ennek megfelelően csökkenti a varianciabecslést.

Az (1)-(4) figyelembe vételével egy véletlen/vegyes hatás modell képes meghatározni a megfelelő zsugorodást alacsony mintás csoportok esetén. Sokkal bonyolultabb, sokféle előrejelzővel rendelkező modelleket is tud kezelni.


Új módszer a havasi béka észlelési valószínűségének és populációméretének becslésére, Rana macrocnemis (Boulenger, 1885) elterjedési tartományának végén

A fajok elterjedési területének peremén található helyi kétéltű populációk valószínűleg nagyobb természetvédelmi aggodalmat keltenek, mint bármely más kétéltű csoport. Nagyobb demográfiai fluktuációt tapasztalnak, mint a tartomány magjában lévő populációk. Megtaláltuk a legmegfelelőbb eloszlási tartományt R. macrocnemis Maximális entrópia (MaxEnt) módszerrel a természetes elterjedési tartomány délkeleti peremének végén, hogy megtudjuk, mely környezeti változók játszanak jelentős szerepet e faj elterjedési mintázatának meghatározásában a marginális populációkban. Az elkészített térkép szerint három fontos változó járult hozzá nagymértékben a fajok jelenlétéhez, mint a talajborítás (63,4%), az éves csapadékmennyiség (27%) és az év leghidegebb negyedévének csapadéka (5,4%).) változók. Ezután új módszereket írtunk le a szárazföldi békák észlelési valószínűségének becslésére R. macrocnemis. Végül kiszámított észlelési valószínűséggel megbecsültük a hegyi békák populáció méretét. Ismételt rögzítés-újrafogás (RCR) eredményeink arra utalnak, hogy a becsült észlelési valószínűség a R. macrocnemis a következő: (widehat

= 0,052) . Így a teljes átlagos száma R. macrocnemis a 17 élőhelyről nyert 982,5 imágó (tartomány: 708-1211 felnőtt). Összefoglalva, az észlelési valószínűségi index alapján becsült populáció általában sokkal magasabb, mint a hegyibéka-populációkra bejelentett sűrűség, mint a vizuális találkozás 50,5 felnőttre (37–63 felnőtt) becsült populációnál.

Ez az előfizetéses tartalom előnézete, hozzáférés az intézményen keresztül.


Vita

Tanulmányunkban kimutattuk, hogy az új CNV-detektálási keretrendszerünk alacsony FDR-t és nagy érzékenységet tart fenn, miközben lényegesen több változatot azonosít, mint más módszerek az alacsony lefedettségű WGS-adatokban. Egy egységesítő megközelítést alkalmazva képesek vagyunk a törlések és a duplikációk/beillesztések széles mérettartományban történő észlelésére anélkül, hogy eltérnénk a korábban közölt hosszeloszlásoktól [4] (S2 ábra az 1. kiegészítő fájlban).

Eredményeink azt mutatják, hogy szinte minden microarray technológiával kimutatható CNV azonosítható alacsony lefedettségű szekvenálás segítségével, hasonló, ha nem nagyobb genotipizálási pontossággal. És mivel a szekvenálással lekérdezhető genom aránya jóval magasabb, mint a microarray-ké, az alacsony lefedettségű NGS természetes választási platformot jelent a CNV asszociációs vizsgálatokhoz.

Módszerünk moduláris keretrendszere könnyen kiterjeszthetővé teszi további adatforrásokra, amint azok elérhetővé válnak. Továbbá, mivel a cnvHiTSeq a cnvHap természetes kiterjesztése, teljes mértékben ki tudja használni a cnvHap microarray alapú CNV észlelési keretrendszerét. A két technológia szintetizálása éri el a legátfogóbb eredményeket, és lehetővé teszi számunkra, hogy a szekvenálásból származó CNV-ket a meglévő genotipizált adatkészletekre imputáljuk.

A nagy áteresztőképességű szekvenálási technológiák még mindig aktív fejlesztés alatt állnak. Az elmúlt néhány év során óriási előrelépés történt, amely gyorsabb, megfizethetőbb szekvenálást tett lehetővé az egész genomra kiterjedően. Ennek eredményeként olyan korszakban élünk, amelyben több száz állat- és növényfajt szekvenálnak vagy szekvenálnak, miközben ezreket terveznek. Az NGS a populáció-újraszekvenálási projektek mozgatórugója, amelyek a meglévő referenciagenomokra támaszkodnak a genetikai variációk azonosítása és katalogizálása, a pángenom létrehozása [17], valamint a populáció szerkezetére és a demográfiai történelemre vonatkozó következtetések levonása érdekében. Populáció-újraszekvenálási projektek folynak több emberi populációban is Arabidposis thaliana [18], valamint a rizs [19] és a szója [20]. Az ilyen projektek általában több egyed sorrendjét próbálják meg úgy, hogy az egyedenkénti lefedettséget 4-8-szorosra csökkentik. Amint ezek az alacsony lefedettségű újraszekvenálási kohorszok elérhetővé válnak, a cnvHiTSeq eszközt fog biztosítani a deléciók és a duplikációk szerepének több faj fenotípusos diverzitására gyakorolt ​​​​felmérésére. Figyelembe véve a homozigóta és heterozigóta események pontos megkülönböztetésének képességét, a cnvHiTSeq teljes megoldást kínál a szekvenálás alapú CNV kimutatására és genotipizálására, azzal a céllal, hogy jobban megértsük a CNV betegségekre és evolúcióra gyakorolt ​​hatását.


Bevezetés

Az élőlények számának és elterjedésének mérése az ökológia, a védelem és a kezelés elsődleges célja [1]. Ezek és a kapcsolódó paraméterek (pl. létfontosságú arányok, fajok diverzitása) elengedhetetlenek a populáció- és metapopuláció dinamikájának, a közösségek összeállításának, a trofikus kölcsönhatásoknak, a veszélyeztetett és veszélyeztetett fajok megőrzésének, valamint a kezelés hatásainak megértéséhez. Ezen paraméterek mérése terén számos előrelépés történt az elmúlt évtizedekben, amelyek szinte mindegyike az élőlények számának és/vagy megfigyelésének függvénye [2]. Sajnos a legtöbb esetben a teljes számlálás (azaz a népszámlálás) lehetetlen a logisztikai korlátok és sok faj rejtélyes természete miatt [3]. Ezért a következtetés a szélesebb érdeklődési körből vett mintán alapul. A számláláson alapuló növény- és állatkísérletek gyakran feltételezik a tökéletes vagy változatlan kimutatást [2]. Sajnos az észlelés ritkán tökéletes vagy állandó a megfigyelő hibája [4], a fajok ritkasága [5] vagy azért, mert az észlelés zavaró változókkal, például környezeti feltételekkel [6] változik. Az okától függetlenül erre az állapotra a továbbiakban tökéletlen észlelésként fogunk hivatkozni.

Ha az észlelés nem tökéletes, további lépésekre van szükség a következtetés javítása érdekében. Ennek elmulasztása torz becsléshez és hibás következtetésekhez vezethet. Számos tanulmány kimutatta, hogy a kimutatás fajok között, idővel és élőhelyenként változik, és súlyos következményekkel járhat, ha figyelmen kívül hagyják ezt a változatosságot. Például a tökéletlen kimutatás korrekciójának elmulasztása torzítást eredményezhet az ökológiai kovariánsokkal [6], [7], a fajok elterjedésének vagy abundanciájával kapcsolatos becslésekben, amelyek pontatlanok, vagy elfedik a trendeket [8]–[11], a fajok nem megfelelő kiválasztása. indikátorfajták [12], és a fittség rosszul értelmezett összetevői, mint például a méretfüggő túlélés és öregedés [13]. Ezek a hibák félretájékoztathatják a menedzsmentet és a politikát, és alááshatják az ökológusokba vetett bizalmat.

Az elmúlt évszázad számos mérföldkőnek számító tanulmányának szerzői (1) felhívták a tudományos közösség figyelmét a tökéletlen észlelés káros hatásaira, és (2) kísérleti és statisztikai megközelítéseket terveztek, amelyek kifejezetten tartalmazzák az észlelési valószínűséget. Petersen [14] és Lincoln [15] felismerte az egyszerű számlálások korlátait, és olyan alapvető módszert javasoltak, amely figyelembe veszi a tökéletlen kimutatást a bőségbecslésben a megjelölt organizmusok befogási előzményei alapján. Megközelítésük megalapozta a megjelölt állatokon alapuló bőség- és túlélési becslés jövőbeli módszereit, ideértve a Cormack-Jolly-Seber modellt [16]–[18], a robusztus tervezési modellt [19], [20] és számos mást, amelyek egyre növekvő mértékben. komplexitás és az észlelésbeli eltérések figyelembevételének képessége [21]–[24]. A közelmúltban elért eredmények az állatok mozgásának elemzését egyesítették a befogás-visszafogással, így térbeli befogás-visszafogási modellek születtek a sűrűség és más érdekes paraméterek becslésére [25], [26]. Ha az egyes organizmusok azonosítása nem kivitelezhető, az ismételt számlálások [27] [4], [28] és a távolsági mintavétel [29] hasznosak lehetnek a kimutatás figyelembevételére a bőség becslése során, mindaddig, amíg elkerüljük az egyedek mintán belüli kétszeres számlálását.

Más népességi és közösségi mérőszámok (előfordulás/foglaltság, helyi gyarmatosítás és kihalás, gazdagság, sokféleség és forgalom) szintén torzulhatnak, ha figyelmen kívül hagyjuk a tökéletlen észlelést [6], [30]–[32]. Léteznek módszerek e paraméterek becslésére, miközben figyelembe veszik a detektálhatóságot, ha az adatokat olyan módon gyűjtik össze, amely lehetővé teszi a detektálási folyamat modellezését [1], [11], [31], [33]–[35]. Ezt gyakran a mintavételi helyek ismételt felmérésével érik el [31], [33], [34], [36], bár más módszerek is lehetségesek, mint például a kimutatás időpontjának összegyűjtése [37], [38]. Szoftvercsomagokat fejlesztettek ki annak érdekében, hogy a fent leírt modellezési fejlesztéseket elérhetőbbé tegyék az ökológusok számára, beleértve a CAPTURE [39], MARK [40], DISTANCE [41], PRESENCE [42], COMDYN [43] és E-Surge [44] programokat. ], valamint számos R-csomag, beleértve a „marked” [45] „unmarked” [46] és a „secr” [47]. A közelmúltban a Bayes-féle modellezési megközelítéseket bemutatták az ökológusoknak, mint alternatív eszközt a komplex populáció- és közösségmodellekhez [1], [26], [48]–[51].

Annak ellenére, hogy számos cikk figyelmezteti az ökológusokat a tökéletlen észlelés következményeire, és a rendelkezésre álló modellek és szoftverek ellenére, amelyek képesek kezelni a tökéletlen észlelést, gyakran találkozunk olyan referált kiadványokkal, amelyek nem veszik tudomásul a nem észlelési hiba jelenlétét, vagy nem magyarázzák azt. Ezek az alkalmi megfigyelések felvetik a kérdést: mennyire elterjedtek az ökológiai irodalomban a tökéletlen detektálást magában foglaló módszerek, és miben tér el ez a különböző típusú tanulmányok és az idő múlásával? Ezeknek a mintáknak az azonosítása kulcsfontosságú a tökéletlen észlelés beépítése előtt álló akadályok megértéséhez, és azon területek megcélzásához, ahol javítható az ökológiai következtetés.

Feltételeztük, hogy az elemzési módszerek, a szoftverek és a számítási teljesítmény bővülése megnövelte annak valószínűségét, hogy idővel a kutatók a tökéletlen észlelést magyarázzák. We suspected that adoption has varied among areas of ecological inquiry (e.g. [10], [52]), so we asked whether the probability of accounting for imperfect detection has varied with the type of organism studied, the level of biological organization studied, or the spatial scale studied. Because of the taxonomic focus of many of the researchers who have developed methods for addressing imperfect detection, we predicted that a greater proportion of studies focused on fish, mammals, and birds would incorporate imperfect detection than other groups (e.g. plants, invertebrates) however we expected this difference to have declined over time. We also predicted that studies conducted at higher levels of organization (e.g. communities vs. individual animals) and with greater spatial extents (e.g. regional or landscape vs. local) would be less likely to incorporate imperfect detection due to the difficulties of implementing more complex study designs with limited resources. To test our predictions, we conducted a quantitative review of ecological literature spanning 40 years, 6 taxonomic groups, 5 commonly reported parameters, 2 levels of biological organization, and 3 spatial scales to determine how the use of statistical methods that incorporate imperfect detection has varied among these variables and over time.


D-prime (signal detection) analysis

The model of discrimination performance discussed in the previous file assumes that when listeners do not hear a difference, or are not sure, they respond "same" or "different" randomly, so that performance is at chance. But there is no guarantee that listeners will do that.

Suppose you were a subject in a discrimination task and you wanted to show 100% discrimination. You could answer "different" to every item, and you would then get 100% correct a különböző pairs. You would of course also get 0% correct on the azonos pairs, because you answered "different" to all of them. In many studies, the azonos pairs are not analyzed at all, and this response strategy would work well. Does this result, 100% correct, mean that you discriminated the pairs very well? Clearly not you don't even have to have listened to them.

Compare this response strategy with an opposite one -- suppose that you are very conservative in answering "different", and only do so when you are quite sure that the stimuli are different. That is, you don't respond at random when you do not hear a difference, or are not sure you consistently respond "same". You might then get 100% correct on the azonos pairs, but you will probably have 0% correct on at least some of the különböző pairs (small step sizes, within-category pairs). Clearly you might nonetheless be discriminating better than a person who readily answers "different". This pattern of results is common in AX discrimination studies.

The point is that % correct on the különböző pairs alone is not a very meaningful measure of discrimination. It becomes meaningful when interpreted in terms of the listener's response bias, or tendency to respond "same" or "different". The responses to the azonos pairs can be used as an indication of response bias.

2. (Signal) Detection theory attributes responses to a combination of sensitivity és bias . Sensitivity is what we are interested in, while bias is what we have to take into account to recover sensitivity. The presentation that follows comes directly from Macmillan and Creelman's 1991 Detection Theory: A User's Guide (known here as “Detection for Dummies”).

Using detection theory, we conceive of sensitivity as (broadly) detecting a signal (e.g. against background noise, or compared to another signal), and model how a perceiver decides whether a signal is present. An experiment presents signals and non-signals to subjects, who try to detect all and only the signals. The traditional way of viewing such an experiment, and naming the possible outcomes, is as follows. “Yes” here represents the presence of a signal or difference to be detected our különböző és azonos labels are added for convenience in thinking about AX discrimination:

Response: Different (Igen)

Stimuli: YES (különböző)

This scheme is also used to organize and tabulate subjects' responses. That is, the (raw) number of HITS etc. is entered into the 4 cells. Notice that if the number of Signal (Different) and No-signal (Same) stimuli are the same in the experiment, then the total number of responses in the top row will equal the total number in the bottom row (or, more generally, the total for each row is known in advance from the design of the experiment) however, the total number of responses in the YES response column will not necessarily be the same as the total number in the NO response column, and neither number can be known in advance. But, if you know the number of YES and NO trials in the experiment, you know the value in one column from the value in the other. Például. if there are 20 különböző trials, and a subject has 5 hits, then that subject must have 15 misses. So, only 2 of the 4 numbers in the table (1 per row), plus the total numbers of trials, are needed to characterize a subject's performance. These are conventionally the Hits and False Alarms, and these are then given as proportions of the row totals, which are in turn viewed as estimates of probabilities of responses:

hit rate H : proportion of YES trials to which subject responded YES = P("yes" | YES)
false alarm rate F : proportion of NO trials to which subject responded YES = P("yes" | NO)

The table can be rewritten with these and the other 2 rates, with each row totalling to 1.0 but the results of interest are the pair (H,F). (Compare these to the total proportion correct, which is (Hits + Correct rejections)/all responses.)

Consider then that the perfect subject's performance is (1,0), while a random subject has H=F and our subject who always answers YES has (1,1). Intuitively, the best subject maximizes H (and thus minimizes the Miss rate) and minimizes F (and thus maximizes the Correct Rejection rate) and thus the larger the difference between H and F, the better the subject's sensitivity. The statistic d' ("d-prime") is a measure of this difference it is the distance between the Signal and the Signal+Noise. However, d' is not simply H-F rather, it is the difference between the z-transforms of these 2 rates:

where neither H nor F can be 0 or 1 (if so, adjust slightly up or down). Note that z-scores can be positive or negative so you have to watch the signs in the subtraction.

Background: z-transform. A range of values is cast as a normal distribution, with standard deviations around the mean. The mean value is set to 0, and the range of most values is about 3 standard deviations above and below the mean. So each value is some number of SD units above or below the mean. This transform is valuable in allowing comparison of measures with different ranges of absolute values, and in taking into account the inherent variability of different measures. For example, Wightman et al. (1992) J. Acoust. Soc. Am. 91,1707-1717 , comparing lengthening before different break indices in a corpus with uncontrolled final consonants and vowels, used transformed duration measurements because different segments have different absolute durations and different degrees of variability.

Of course, whether you use the original proportions or their transforms, when H = F, then d' = 0. This will be true whether the "yes" rate is near 1 or near 0. The highest possible d' (greatest sensitivity) is 6.93, the effective limit (using .99 and .01) 4.65, typical values are up to 2.0, and 69% correct for both különböző és azonos trials corresponds to a d' of 1.0.

There are other sensitivity measures - e.g. a transform other than z (or even no transform at all), or differential weighting of H and F, and even alternate versions of d' (see below) - but this is the one you usually see in speech research.

3. How to get d' for your data.

You could calculate H and F, convert them to z-scores, and subtract them. M&C's table A5.1 in Appendix 5 gives the z-score conversions.

M&C's first example of getting H and F:

So the hit rate H is 20/25, or .8
the miss rate is 5/25, or .2 (these 2 add up to 1.0)
the false alarm rate is 10/25, or .4
the correct rejection rate is 15/25, or .6 (these 2 add up to 1.0)
and the (H,F) pair is (.8,.4)

z(H) = 0.842 and z(F) = -0.253
d' = 0.824-(-0.253) = 1. 095

But probably you will want to do it more automatically. M&C's Appendix 6 provides some information on available programs, the late Tom Wickens still has a website on a UCLA server with a downloadable program, and a search online will turn up several options.

Colin Wilson has provided his Excel formula: d' = NORMINV(hit-rate,0,1) - NORMINV(false-alarm-rate,0,1) where Excel's NORMINV "Returns the inverse of the normal cumulative distribution for the specified mean and standard deviation", 0 being the specified mean and 1 being the specified SD.

But see 13 below for different d' calculations for different experimental designs, including our AX discrimination.

4. Some use of d' in the discrimination literature.

d' is often plotted for instead of, or in addition to, % correct/% different responses to különböző pairs. Here is a recent example , from Francis & Ciocca (2003), JASA 114(3), p. 1614:

Best et al. (1981), Perc. & Psychophys. 29 :191-211 calculate d' for obtained and predicted discrimination, and compare these by ANOVA. Here is a figure plotting obtained minus predicted d' (p. 211):

Godfrey et al. (1981) and others have studies with small numbers of trials for each pair (especially azonos pairs, and especially in studies with kids), and in these cases d' is calculated not for individual stimulus pairs, but for each subject, combining all különböző pairs and all azonos pairs. Alternatively, a d' for each pair is sometimes seen for a group of subjects (e.g. Francis & Ciocca 2003) this has the advantage that perfect scores on any pair are unlikely for a whole group (and thus require no adjusting down from 1.0). See J. Sussman (1993) for averaging H and F, so that d' scores are group scores tested with G test. Clearly in small experiments we have no choice but to average something see Ch. 11 in M&C on how to average carefully.

Sometimes H and CR are added to give a proportion correct (for all pairs, not just for különböző pairs), which is then arcsin transformed and analyzed in the usual way. See Sussman & Carney, Francis & Ciocca. But see M&C p.100ff on the dangers of proportion correct ("an unexpectedly theory-laden statistic").

Bias is measured as the inclination of the subject to say "yes" (or "no"). The bias measure c is a function of H + F. But no one in speech research seems to report it, so we won't cover how to calculate it.

6. Two models of AX discrimination performance

A "same-different" experiment uses 2 or more stimuli in a trial and calls for a "same/different" response. M&C propose that there are really 2 different kinds of these, with different likely subject strategies and therefore different appropriate models for d' (pp. 143ff). In "fixed" designs the 2 stimuli in a pair are the same across trials in a block, and subjects are likely to apply an independent-observation strategy, estimating the category for each stimulus and then comparing the category estimates. For this strategy, d' is calculated in the usual way. In "roving" designs the 2 stimuli vary from trial to trial, and subjects are likely to apply a differencing strategy, applying a threshold of difference to decide if 2 stimuli are different enough to count as different. For this strategy, d' is calculated differently, e.g. using the table of H vs. FA values in M&C's appendix A5.4.
It would seem that speech experiments almost always use a roving design, and thus would seem to call for the differencing model but on the other hand the theory of the independent-observation model is more like the idea of categorical perception. Both approaches to d' are seen in the speech perception literature. To pursue the issue of whether categorical perception can be modeled as a differencing strategy, see Macmillan, Kaplan, and Creelman 1977, "The psychophysics of categorical perception", Psych Review 84: 452-71.

How much difference will this make in analyzing an experiment? Consider M&C's example in (11) above, for the (.8,.4) pair: d' was
1. 095. This pair is found on p. 347 of Table A5.4, with a d' of 2.35. Compare also the values in the file "some sample dprime.xls". (Some values still need to be looked up - try this yourself.) The differences can be large, but it might not matter when comparing values calculated by the same method.

7. Applying detection theory to identification data

In some papers we see pairs of items along a continuum treated as signal vs. noise for purposes of computing a d-prime for identification responses. For example, Massaro 1989, starting p. 410: “The probabilities of responding /r/ are transformed into z scores. The d’ between two adjacent levels along the /l/-/r/ continuum is simply the positive difference between the respective z scores.” (example given) “A d’ value was computed for each of the two pairs of adjacent levels along the /l/-/r/ continuum.” Then he reports an ANOVA on these d’ values, with 2 within-subject factors (context: 3 levels, and stimpair: 2 levels).

In effect, by subtracting like this, the responses (say, the /l/ responses) to one stimulus are treated as the HITS, and the responses (with the same response category) to the next stimulus over are treated as the FALSE ALARMS.

Another example, which I quote here a bit, is Iverson & Kuhl (1996). Starting on p. 1134: estimating the “perceptual distances” between stimuli from identification responses:

“Through the application of detection theory, identification percentages can also be used to estimate the perceptual distances separating tokens (Macmillan and Creelman, 1991). Within this theoretical framework, the z-transformed identification probability for each token, z(p), indicates its location relative to the category boundary. The absolute value of this measure indicates each token’s distance from the boundary in standard-deviation units. The sign of this measure indicates whether each token is within (positive) or out of (negative) the category. For example, z(p)=0.0 for tokens that are identified as a member of the category on 50% of trials, z(p)=2.3 for tokens that are identified as a member of the category on 99% of trials, and z(p)=-2.3 for tokens that are identified as a member of the category on 1% of trials. The perceptual distances between pairs of tokens (d’) can then be found by subtracting these location measures tokens that are at similar locations will have a small d’ and tokens that are at dissimilar locations will have a large d’. In other words, d’ will be greater to the extent that tokens are identified differently.”

“The identification judgments were used to estimate perceptual distances by calculating the z transform of the mean /l/ identification percentage for each token and then taking the absolute value of the difference for each pair of tokens. The z transform reaches infinity when percentages equal 0 or 100, so tokens with 0% /l/ identifications were assigned values of 1% and tokens with 100% /l/ identifications were assigned values of 99% (Macmillan and Creelman, 1991).”

Pairwise comparison of identification responses is described by M&C on pp. 212-13. However, it’s not clear that they would use it directly as a measure of perceptual distance.


8. Comparing identification with discrimination responses. Above we see ways to get sensitivity scores for discrimination and identification responses. Once they are both in terms of d-prime, a common currency, they can be compared directly. That is, no need to "predict" an expected discrimination from identification. If discrimination is constrained by categorization, then the two sensitivity functions should be the same. An example of this, though without explanation, is in Schouten et al. (2003).

9. Some Terminology and models in M&C

" one-interval discrimination ": "one-interval" means one stimulus in a trial "discrimination" means telling the different stimuli of the kísérlet (not of the trial!) apart by selecting different responses from the available set -- so, confusingly, this refers to what we call identification . These are of 2 types:

  • "yes-no": only 2 responses are available e.g. for each of the stimuli, is it one you've seen before (yes) or not (no, it's new) is it a Z (yes) or not (no, it's a Y). d' is calculated as before, though this assumes that there is a known, correct, answer for each stimulus, which is not the case for identification of stimuli drawn from a continuum.
  • "rating": more than 2 responses are available, on a scale, e.g. 1 to 5, where the 2 endpoint responses indicate high certainty See M&C pp. 61ff. for how to calculate H and FA in rating experiments. See also pp. 79ff for alternatives to the rating design, in which multiple conditions are used to manipulate bias.

"two interval": 2 stimuli per trial
"2AFC": which one of these 2 stimuli? (e.g. which one have you seen before (recognition), which one came first (temporal order), which one matches the prompt (identification))

M&C say that a 2AFC design is better than yes-no recognition when a priori familiarity is a likely confound BUT because 2AFC is easier for subjects, d' is lowered by a factor of roughly .7. They also note that as this design tends to minimize bias (at least for simultaneous visual presentation of stimulus pairs), percent correct is not a bad measure of sensitivity.

Prepared by Pat Keating, Spring 2004, updated Fall 2005


Nézd meg a videót: Összetett események valószínűsége (Augusztus 2022).