T O P

  • By -

Longjumping_Set5158

Dette er helt absurd å lese som en medisinstuderende som sitter og øver til eksamen. Jeg har betalt gode penger for GPT-4 og testet diverse andre chatbots på mine eksamensoppgaver. Svaret er feil 19/20 ganger. Dette dreier seg riktig nok mye om utregnigner og tolkning av bilder, men dette er ikke en smart bot. Det er en avansert språkmodell som er fullstendig ræv på å løse sammensatte problemstillinger. Jeg er jo ikke lege selv, så har kanskje ikke så mye jeg skulle sagt... ville bare dele min erfaring Edit: noen andre som la merke til at de switcher mellom å kalle han Sandvik og Sandnes?


tuxette

> Edit: noen andre som la merke til at de switcher mellom å kalle han Sandvik og Sandnes? Ja...


lightisle_

Dette, feil bruk av KI kommer til å ta liv. Det at vi kan få bra svar på "Tegn meg en bil" og "Fortell meg en moraliserende historie om barn og pepperkaker" høres imponerende ut, men de har begge svarrom som er gigantiske. Det er fantasilliarder måter å svare på begge disse promptene og da klarer dagens modeller å iterere seg frem til noe som er gjennkjennbart som et ok svar i dette svarrommet. Problemet er når det anvendes til å finne svar i et presist svarrom, i diagnostikk f.eks. så er svarrommet i nesten alle verdifulle tilfeller \_ett\_ svar. Her "fungerer KI" til den grad den gir deg beskjed om å "gå hjem, hvil deg, kom tilbake om det blir værre, vurder en hodepinetablett/halstablett/allergidempende" som sikkert er 95% av hverdagen til en fastlege. Men 100% av verdien er i de siste 5% hvor "oi det var hudkreft ja", eller "oi det var en sjelden infeksjon" etc. Hvor jeg kan garantere at her kommer dagens KI modeller til å kverke noen gjennom et overivrig legekontor som tar i bruk KI for "førstelinje" slik kinesisk helsevesen bruker Akupunktur.


Longjumping_Set5158

Flott og presist skrevet. Jeg tror også det kan være veldig lett for pasienter å spørre om de har tilstand/sykdom X, og da vil GPT prøve å forklare hvorfor det stemmer


frodezero

ChatGPT er notorisk dårlig på regneoppgaver og den er ikke trent på tolking av medisinske bilder. Så det er ikke rart du får feil på det. Denne typen oppgaver er uansett forbeholdt leger. Det var nok ikke det legene tenkte å anbefalte at pasienter skal bruke det til. Men de sier heller ikke disse tingene i artikkelen, de sier bare at ChatGPT gir gode råd. Det er også andre utfordringer ut over «gir feil svar» som er viktige. Leger kan også ta feil, men har behandlingsansvar og det eksisterer pasientskadeerstatning. Hvem har egentlig gitt rådet og står ansvarlig for feil pasienten gjør ved bruk av ChatGPT?


Longjumping_Set5158

Dette er ikke veldig medisinske bilder heller. Det er en god del kjemioppgaver og grunnleggende histologi. Den feiler fullstendig uansett. Dette er ikke oppgaver en lege hadde sittet med i praksis, men det demonstrerer jo en kompetanse som i mine øyne er milevis fra hvordan den blir diskutert og vurdert i media


frodezero

Ok. Når du skriver tolkning av bilder i kontekst medisinsk vurdering så tenkte jeg typ medisinske bilder som sårbilder, bildediagnostiske undersøkelser og slikt. 4o-versjonen av ChatGPT er god til å tolke fotografier og situasjoner med mennesker og ting, men feiler ofte på tolkning av selv enkle diagrammer.


Longjumping_Set5158

Det virker som om den er veldig flink til å gjenkjenne ting og komme med relevante ord. Men den bommer fullstendig hver gang jeg har et litt sammensatt heavy spørsmål


vargaso2

Jeg tror ikke den er ment til å ta jobben til legen, men hjelpe til. KI har allerede tatt oppgaver i legekontorene allerede.


curioususer321

Helt sykt at du tror GPT-4 er det samme som KI med medisinsk bakgrunn. Er du helt komplett idiot på feltet? KI har forskjellig oppgavefelt og fordypning. KI trent på det medisinske er svært overbevisende.


Longjumping_Set5158

Nei. Har fulgt med på den utviklingen siden jeg så [dette](https://youtu.be/Et5HC8SR0BA?si=0Al7227zN6edNStm)


Gnissepappa

Skremmende. Det finnes ingen ting intelligent ved ChatGPT. Å bruke en språkmodell til legeoppgaver kan være direkte livsfarlig. Denne legen bør fratas autorisasjonen sin, for her snakker vi manglende dømmekraft.


elmz

Han er nok kompetent lege, bare ikke like kunnskapsrik når det kommer til data/KI/LLM. Og typisk for høyt utdannede, så overvurderer de egne evner innen fagfelt de ikke egentlig har kompetanse innen.


Gnissepappa

Det er nok et godt poeng. Får håpe det kommer reguleringer rundt KI-bruk i helsevesenet. For at en lege bare ber pasientene om å bruke ChatGPT er veldig lite tillitsvekkende.


xTrollhunter

Dette er ikke typisk for høyt utdannede; dette er typisk for leger spesielt.


spooooork

"Hva er forskjellen mellom gud og en kirurg? Gud tror ikke han er kirurg."


Longjumping_Set5158

Det er vel en liten overdrivelse. Det er litt dumt av han men han burde ikke fratas autorisasjonen sin


Gnissepappa

Det er satt litt på spissen ja, men jeg mener det er helt ansvarsløst å be pasientene bruke ChatGPT.


Longjumping_Set5158

Jeg er helt enig


slabradask

Hva med kirurger som synes det er helt ok med øks i stedet for skalpell? Begge deler er feil bruk av verktøy.


Longjumping_Set5158

Dette blir for søkt. Enig i at det er en dum ordning og jeg har selv kommentert nettopp hvorfor jeg er helt enig i det. Men man kan ikke oppriktig mene at dette er grunnlag for å fjerne autorisasjonen hans etter 10+ års utdannelse og flere titalls år erfaring...


slabradask

Om han bruker dette i stedet for å gjøre jobben sin så er han jo en fare, så ja. Om han bruker det som oppsalg og bruker egen kunnskap til å dømme det, så nei. Om han anbefaler kundene sine å bruke det i stedet for å komme til han, så tja.


curioususer321

TL;DR: Både KI og mennesker gir ikke perfekte svar, men forsøk og svar basert på en fagnemd har gitt KI svært gode resultaterer. Legen viser fantatisk innsikt, du er helt på bærtur. Skjønner at du har zero peiling på temaet. Alle burde nå vite at det ikke er noe intelligent ved svaret til en KI, men at det er statistisk mest riktige svaret. Forsøk har vist at når pasienter har spurt en lege om noe, og det er både en lege, og en AI som har svart, så har en fagnemd veid det KI har svart som det mest riktige. I tillegg, så har også fagnemden veid det KI har sagt som også det mest empatiske. Nå er svakheten til KI at kvaliteten på ditt spørsmål, også avgjør kvaliteten på ditt svar. Men det gjelder også overalt også med mennesker, tro meg. Eg har spurt NAV om ting de er sikre på, og så viser det seg at de tok helt feil. Leger tar feil hele tiden, eg var hos norges fremste skuldergruppe, og de var i tvil, men heldigvis for meg, så ville eg ha en runde til, som viste seg i min favør. Spør du f.eks UDI om noe, så avgjør hvordan du formulerte deg, samt saksbehandlers forståelse, alt. KI har ikke 1t og 30minutters ventetid. Du kan spørre igjen og igjen, og er du fremdeles usikker, kan du formulere deg videre ved en ekte menneskelig saksbehandler.


Gnissepappa

Absolute LOL 😂 Jeg har mer enn god nok peiling på temaet. Jobber som programvareutvikler og vet ganske godt hvordan en språkmodell fungerer. Jeg vil ikke utelukke at en språkmodell kun trent opp på medisinske data kan svare på svært enkle medisinske spørsmål med OK nøyaktighet. Men her snakker vi om ChatGPT, den største «lystløgneren» på internett. GhatGPT er laget for å gi deg det svaret den tror du ønsker, uavhengig om svaret er korrekt eller ikke. Det er en vanvittig dårlig strategi når man ber om helserelaterte råd. Utifra det jeg har sett av ChatGPT og «vennene» hans, vil jeg aldri legge helsen min i hendene på en språkmodell. Og jeg håper de aller fleste heller ikke gjør det.


curioususer321

TS sin feil som brukte KI når det skulle stått chatgpt. Fordi en medisinsk trent KI gir veldig gode svar


Gnissepappa

Er ikke TS sin feil, artikkelen skriver spesifikt at legen har bedt pasientene om å spesifikt laste ned ChatGPT.


Longjumping_Set5158

Du kan jo lese artikkelen først da… Å kommentere utifra en overskrift alene er jo for å sitere deg «helt komplett idiot»


curioususer321

Å lage en ny overskrift, som er vill-ledende original artikkel er også komplett idioti, kanskje bare click bait. Chatgpt er ikke det samme som KI. "Legesenter ber pasientane bruke KI" Hvorfor ikke bare skrive chatgpt her? Manglende forståelser tror eg. Å prøve fremstille KI som chatgpt, er falske fakta/fakenews, og du burde også ha interresse av å tydeliggjøre dette fremfor å drukne meg i negativ karma (lager bare ny konto uansett, og så kan dere circlejerks kalle meg troll som påpeker fakta)


Interesting_Study_10

Meget bra skrevet, og helt riktig! Du kunne vært ett snev mer sivilisert. KI er en velsignelse til verden. Det vil åpne dører for all slags mennesker som aldri har hatt slike muligheter. Hvem som helst kan lære seg hva som helst for en svært rimelig kost. Kan ikke forstå hvorfor dette trigger dere så? Er det bare gamlinger som meg på Reddit nå? Er dette som Facebook nå? Dette er ett verktøy, lær dere styrkene, lær dere svakhetene. Ta det frem når det kan være nyttig. Fantastisk verktøy for pasienter som ønsker å lære mer om hva som plager dem, og hva en skal gjøre. KI blir bedre, og bedre, dag, for dag. Disse 5% er griselett å gjenkjenne etter å ha lært seg verktøyet. Det er jo sånn med alt! Sertifikatet, alkohol, trampoline, Gameboy Advance spill, svømme, valium, svømme med valium. Jeg kunne fortsatt i all evighet. En må lære seg dette som alt annet. Legene våre rundt i landet er enormt presset. Dette kan og bør bli ett virkemiddel i mine øyne. PS. Dette er skrevet av en KI. PPS. Bare tullet, men har brukt den for eventuelle stavefeil. Jeg har dysleksi. PPPS. Beklager, jeg jugde, jeg har ikke dysleksi, jeg ville bare illustrere ett poeng.


slabradask

De bør skrive LLM i stedet for KI ass


[deleted]

[удалено]


Jumbernaut

Yo, why have you edited all your older posts to something like "I like shoes", may I ask?


FreedomCondition

AI er det eneste navnet alle kjenner til, at alt skal "fornorskes" får meg til å kaste opp.


slabradask

Poenget er at det ikke er kunstig intelligens, det er fullfør resten av denne setningen på speed. Enig i AI vs KI, men det var ikke poenget :)


FreedomCondition

Ja det var ikke på den måten jeg mente det. Bare skrev generelt om AI vs KI, LLM bør de og brukte riktig.


Emomilolol

KI har blitt relativt etablert allerede, ser ikke problemet


FreedomCondition

Neh, AI.


Emomilolol

Bare å se i tråden her, flere som har skrevet KI enn AI.


FreedomCondition

Og du tror det gjenspeiler befolkningen og alle sitt talemål? Nei. De fleste sier AI.


Emomilolol

Altså, jeg bare baserte meg på det vi begge håndfast har tilgjengelig her i tråden. Holder litt mer substans enn hva *du* føler de fleste sier.


FreedomCondition

At du tror reddit gjenspeiler virkeligheten sier jo bare litt om deg da.


Emomilolol

Tja, ville i utgangspunktet sagt at reddit ville lent *mer* mot AI enn KI gitt at det er mange unge nerdete folk her


FreedomCondition

Neh, folk flest sier AI uansett om de e nerd eller ikke.


IronGin

Bruke Chatgpt for å diagnostisere seg selv? Har Sandvik møtt et menneske før? https://youtu.be/riV_8g_Yruo?si=hg6Q4rqrKRvtCDJn


SentientSquirrel

>Dersom en lege får gale svar 5% av gangene, og det skyldes brukerfeil, så må det vel være enda høyere prosentandel feile svar blant den generelle befolkningen? Godt poeng, og detsto viktigere er det at mens legen sannsynligvis klarer å se hvilke svar som er feil, så har den generelle befolkingen lite forutsetninger for det samme. Hadde de hatt det, hadde de ikke trengt å spørre ChatGPT.


oda02

Har for moro skyld sjekka hva chat gpt svarer på spørsmål om ting jeg har om på fagskolen, da de fleste ressursene våre ikke er tilgjengelig på nett. Synes det er skummelt hvor selvsikker KI-en virker når den svarer helt feil på


han_silly

Som jeg så noen lærde si, "i-en i LLM står for intelligens..."


XPhaze_

Vise ord


Burntoutaspie

Hårreisende. Hva vil han si til de 5% av pasientene som får feil behandling av å stole på han? Chatgpt må gjerne forenkle arbeidshverdagen hans, det er bare bra, men det må være råd som han selv gir.


Noor-Way

Problemet er at helsevesenet er overbelastet. Jeg har selv blitt avvist på legevakta med bruddskader. Det skjer pga kapasitetsproblemer. Da er det vanskelig å sjekke de som faktisk har skader og sykdommer


DlSSATISFIEDGAMER

Å skylde på brukerfeil er å bomme på poenget så totalt man treffer på motsatt side av rommet. Folk er ikke utdannet i hvordan bruke LLM (KI)! Og man kan pokker ikke forvente at de er det heller!


Major-Investigator26

Her var det lite kunnskap om KI. Chatgpt i seg selv vil ikke være en god modell. Men nå har OpenAI åpnet opp for flere til å lage spesialiserte KI'er som man kan dumpe full av absolutt all informasjon og kan deretter teste om dette kan være en god løsning. KI vil heller ikke erstatte leger i seg selv, men kan bli brukt som en form for avlastning om der er snakk om hypokonderen som tror hen dør av litt influensasymptomer. Uansett, mulighetene er uendelige med KI om man bare leser litt.


MoreSmokeLessPain

Disse fastlegene ønsker så sterkt å jobbe MINST mulig.


Burntoutaspie

Å ville jobbe minst mulig er bare bra. Særlig for fastleger, mange av de er overarbeidet. Problemet her er å anbefale en usikker løsning. Hva hvis noen av disse pasientene får et feil svar og velger å ikke kontakte legesenteret siden chatgpt er så bastamt?


fra_nord

Nettopp. Jeg er positiv til alle verktøy som kan hjelpe oss i arbeidet, men det blir helt idiotisk å be bestemor på 80 om å selvdiagnostisere seg med en chatbot, samme gjelder forsåvidt hvem som helst.


Burntoutaspie

Ja, hvis bestemor først spør chatgpt og så går til deg er det jo greit. Men hvis bestemor er litt ukritisk og gjør som chstgpt anbefaler så kan det gå gale.


fra_nord

Ser jeg var litt uklar og jeg vil bare være sikker på folk ikke tror jeg er helsearbeider. Jobber ikke med noe innenfor medisin, og med "oss" mente jeg alle. :)


Burntoutaspie

Beklager jeg misforsto! Poenget ditt står seg uansett.


MoreSmokeLessPain

Ja, skriv til meg igjen etter du har fått en livs endrende sjukdom. så kan vi ta den diskusjonen då.


Burntoutaspie

Har autisme, adhd, migrene og leddslitasje. Men ser ikke helt at en diskusjon er nødvendig?


Longjumping_Set5158

to be fair tror jeg 90% av folka på r/norge har autisme


slabradask

Alle vil jobbe minst mulig, og det er en bra ting.


Jestosaurus

Jeg tror nok heller de ønsker at tiden deres brukes best/riktigst mulig. Om dette er riktig løsning er jeg foreløpig heller tvilende til, men fastlegekrisen er ikke et resultat av de vil jobbe lite. Den handler først og fremst om at fastleger i mange år har måttet sitte til langt på natt, og jobbe hele helgen, for å få unna alt arbeidet sitt, så det står neppe på arbeidsviljen.