23948sdkhjf

Chat GPT och andra NLP-program inom medicinen

Det senaste modeordet inom AI är Chat GPT. Det finns fritt tillgängligt på nätet och jag rekommenderar verkligen att prova det.

Chat GPT baseras på något som kallas Transformers som är en variant av AI för språkhantering. I korthet kan man säga att om man samlar in ALL text som finns på Internet och har en bra modell för hur man ska hantera denna enorma mängd information så kan man inte bara söka i det (som Google med flera), man kan också använda all denna data för att generera liknande texter som är helt nya, baserade på mönster på nätet. Man kommer kusligt nära något som verkar vara en person som genererar nya tankar. Men det finns egentligen ingen ”intelligens” bakom detta. 

Det är ett exempel på AI baserat på enorma mängder data som verkar ”intelligent” (vi hoppar över diskussionen om vad intelligens är här). Notera speciellt att utdata INTE baseras på regler, det är bara baserat på text som finns tillgänglig på internet. 

Man lär ha använt GPT3 (den underliggande AI-tekniken som inte är i dialogform) för att skapa vetenskapliga artiklar som passerat peer review och godkänts för publicering i vetenskapliga tidskrifter, men som egentligen bara baseras på mönster på internet.

Konsekvenserna är enorma. Skolelever kan till exempel skriva instruktionen ”Skriv en uppsats om Gustav III:s relation till barockkonst” eller ”Tage Erlanders relation till kyrkan”. Eller ”Write a limerick about a girl that plays piano and loves to dance”. Och ut kommer fungerande och helt nyskrivna texter.

Chat GPT kan skriva program också. Det har insyn i alla program som finns på nätet och kan inte bara returnera dessa färdiga program, utan även generera NY kod baserat på detta. Det är som om det lärt sig programmera i alla fall enklare program.

Själv testade jag  ”Write a program in C++ that sends an sms message to me when it is time to eat lunch”. Och voilà ! Det fungerade! Men utöver att ändra fundamenten för mjukvarubranschen, när program skriver, eller hittar redan skrivna program åt oss, och för utbildningsområdet, när uppsatser kan skrivas av ett program utan att kopiera något redan skrivet, så öppnas fascinerande möjligheter inom medicinen. 

Jag skrev in lite symtom som jag har haft i olika situationer och ut kom diagnosförslag. Frågar man om differentialdiagnosen mellan olika förslag så får man ut den med. De är så vitt jag kan se korrekta, men en sådan fråga till Chat GPT avslutas med uppmaning att gå och träffa en läkare (Open AI, företaget bakom Chat GPT, är amerikanskt och vill inte bli stämda…). Men notera att de svar som skapas inte är inskrivna i förväg eller evidenskontrollerade, det finns ingen bakomliggande databas över sjukdomar och symtom med referenser till studier, det är bara mönster som hittas på Internet. De kan alltså vara rent ”hittepå” också.

Ett tag lekte jag med tanken att be Chat GPT om följande ”Write an article for Swedish Medtech Magazine in maximum 3 000 characters about the use of ChatGPT in medicine”. Jag testade och fick tillbaka en helt fungerande krönika på engelska. Jag bad därefter Chat GPT att översätta svaret till svenska. Och ut kom något som såg helt okay ut, lite tråkig text kanske, men i det stora hela helt okay. Min gissning är att det hade tryckts. Men det kändes som lite fusk (trots att jag inte får betalt för de här krönikorna).

Så jag skrev istället: “Please list the three major opportunities and major risks of using Chat GPT in medicine”. Ut kom följande:

  1. ”Improving patient engagement and education by providing easy-to-understand and accessible information about medical conditions and treatments.
  2. Automating routine tasks such as answering frequently asked questions, freeing up time for healthcare professionals to focus on more complex tasks.
  3. Enhancing communication between patients and healthcare providers by providing an easy and convenient way for patients to ask questions and receive answers.

Risks: 

  1. Misinterpretation or misuse of the information provided by ChatGPT could lead to incorrect diagnosis or treatment decisions.
  2. ChatGPT is not a substitute for professional medical advice and should not be used to diagnose or treat medical conditions.
  3. Lack of transparency of the decision making process could lead to lack of trust and mistrust by patients and healthcare providers.

Denna text fanns alltså inte i sinnevärlden innan jag ställde min fråga. Programmet skapade svaren. Vi kan nog utgå från att dessa nya verktyg kommer att ”rubba våra cirklar” rejält. Men vi måste samtidigt inse att ju mer ”mänskliga” systemen blir, desto fler misstag kommer de att göra. Precis som vi människor. Och vi kan nog vara relativt säkra på att de ”googlande patienterna” kommer att använda liknande tekniker i framtiden. Men, och detta är en stor risk, när man i en Google-sökning får tillbaka en länk till webbsida och alltså vet var svaret kommer ifrån, så finns det inga liknande mekanismer här. Det som returneras baseras på ett ”mönster” utan tydliga referenser till vad som ligger bakom. 

Jag skulle nog också lägga till en risk till svaret jag fick ovan: ”Potential deliberate misuse for political, religious or commercial reasons.” 

Vi har en spännande tid framför oss. Prova Chat GPT om ni har en stund över. Det är både kul, skrämmande och kolossalt fascinerande.

Fotnot: NLP = Natural Language Processing, GPT = Generative Pre-trained Transformer, C++ = Ett programspråk

Chat GPT: chat.openai.com/chat

Artikeln är en del av vårt tema om Krönika.

Kommentera en artikel
Utvalda artiklar

Nyhetsbrev

Sänd till en kollega

0.094