[Significance of natural language processing and chat-based generative language models].
Stellenwert von Natural Language Processing und chatbasierten Generative Language Models.
Artificial intelligence
Computational neural networks
Publications
Research
Research ethics
Journal
Medizinische Klinik, Intensivmedizin und Notfallmedizin
ISSN: 2193-6226
Titre abrégé: Med Klin Intensivmed Notfmed
Pays: Germany
ID NLM: 101575086
Informations de publication
Date de publication:
18 Dec 2023
18 Dec 2023
Historique:
received:
16
10
2023
accepted:
30
10
2023
medline:
18
12
2023
pubmed:
18
12
2023
entrez:
18
12
2023
Statut:
aheadofprint
Résumé
Natural language processing (NLP) has experienced significant growth in recent years and shows potential for broad impacts in scientific research and clinical practice. This study comprises an exploration of the role of NLP in scientific research and its subsequent effects on traditional publication practices, as well as an evaluation of the opportunities and challenges offered by large language models (LLM) and a reflection on necessary paradigm shifts in research culture. Current LLMs, such as ChatGPT, and their potential applications were compared and assessed. An analysis of the literature and case studies on the integration of LLMs into scientific and clinical practice was conducted. LLMs provide enhanced access to and processing capabilities of text-based information and represent a vast potential for (medical) research as well as daily clinical practice. Chat-based LLMs enable efficient completion of often time-consuming tasks, but due to their tendency for hallucinations, have a significant limitation. Current developments require critical examination and a paradigm shift to fully exploit the benefits of LLMs and minimize potential risks. HINTERGRUND: Natural Language Processing (NLP) hat in den letzten Jahren erheblichen Aufschwung erfahren und zeigt Potenzial für weitreichende Auswirkungen in der wissenschaftlichen Forschung und im klinischen Alltag. Untersuchung der Rolle von NLP in der Wissenschaftsforschung und der daraus resultierenden Auswirkungen auf traditionelle Publikationspraktiken. Evaluation der Chancen und Herausforderungen, die Large Language Models (LLM) bieten, und Reflexion über notwendige Paradigmenwechsel in der Forschungskultur. Aktuelle LLM, wie Chat Generative Pre-trained Transformer (ChatGPT; OpenAI, San Francisco, CA, USA), und deren mögliche Anwendungen werden verglichen und bewertet. Zudem werden die relevante Literatur und Fallstudien zur Integration von LLM in der wissenschaftlichen und klinischen Praxis analysiert. Die LLM ermöglichen verbesserten Zugang und Verarbeitung von textbasierten Informationen und stellen ein großes Potenzial für die (medizinische) Forschung sowie den klinischen Alltag dar. Chatbasierte LLM ermöglichen eine effektive Erledigung oft zeitintensiver Aufgaben, weisen aber aufgrund ihrer Tendenz zu Halluzinationen eine wesentliche Limitation auf. Die aktuellen Entwicklungen erfordern eine kritische Auseinandersetzung und einen Paradigmenwechsel, um ihre Vorteile voll auszuschöpfen und mögliche Risiken minimieren zu können.
Sections du résumé
BACKGROUND
BACKGROUND
Natural language processing (NLP) has experienced significant growth in recent years and shows potential for broad impacts in scientific research and clinical practice.
OBJECTIVE
OBJECTIVE
This study comprises an exploration of the role of NLP in scientific research and its subsequent effects on traditional publication practices, as well as an evaluation of the opportunities and challenges offered by large language models (LLM) and a reflection on necessary paradigm shifts in research culture.
MATERIALS AND METHODS
METHODS
Current LLMs, such as ChatGPT, and their potential applications were compared and assessed. An analysis of the literature and case studies on the integration of LLMs into scientific and clinical practice was conducted.
RESULTS AND CONCLUSION
CONCLUSIONS
LLMs provide enhanced access to and processing capabilities of text-based information and represent a vast potential for (medical) research as well as daily clinical practice. Chat-based LLMs enable efficient completion of often time-consuming tasks, but due to their tendency for hallucinations, have a significant limitation. Current developments require critical examination and a paradigm shift to fully exploit the benefits of LLMs and minimize potential risks.
ZUSAMMENFASSUNG
UNASSIGNED
HINTERGRUND: Natural Language Processing (NLP) hat in den letzten Jahren erheblichen Aufschwung erfahren und zeigt Potenzial für weitreichende Auswirkungen in der wissenschaftlichen Forschung und im klinischen Alltag.
FRAGESTELLUNG
UNASSIGNED
Untersuchung der Rolle von NLP in der Wissenschaftsforschung und der daraus resultierenden Auswirkungen auf traditionelle Publikationspraktiken. Evaluation der Chancen und Herausforderungen, die Large Language Models (LLM) bieten, und Reflexion über notwendige Paradigmenwechsel in der Forschungskultur.
MATERIAL UND METHODE
UNASSIGNED
Aktuelle LLM, wie Chat Generative Pre-trained Transformer (ChatGPT; OpenAI, San Francisco, CA, USA), und deren mögliche Anwendungen werden verglichen und bewertet. Zudem werden die relevante Literatur und Fallstudien zur Integration von LLM in der wissenschaftlichen und klinischen Praxis analysiert.
ERGEBNISSE UND SCHLUSSFOLGERUNG
UNASSIGNED
Die LLM ermöglichen verbesserten Zugang und Verarbeitung von textbasierten Informationen und stellen ein großes Potenzial für die (medizinische) Forschung sowie den klinischen Alltag dar. Chatbasierte LLM ermöglichen eine effektive Erledigung oft zeitintensiver Aufgaben, weisen aber aufgrund ihrer Tendenz zu Halluzinationen eine wesentliche Limitation auf. Die aktuellen Entwicklungen erfordern eine kritische Auseinandersetzung und einen Paradigmenwechsel, um ihre Vorteile voll auszuschöpfen und mögliche Risiken minimieren zu können.
Autres résumés
Type: Publisher
(ger)
HINTERGRUND: Natural Language Processing (NLP) hat in den letzten Jahren erheblichen Aufschwung erfahren und zeigt Potenzial für weitreichende Auswirkungen in der wissenschaftlichen Forschung und im klinischen Alltag.
Identifiants
pubmed: 38108880
doi: 10.1007/s00063-023-01098-5
pii: 10.1007/s00063-023-01098-5
doi:
Types de publication
English Abstract
Journal Article
Review
Langues
ger
Sous-ensembles de citation
IM
Informations de copyright
© 2023. The Author(s), under exclusive licence to Springer Medizin Verlag GmbH, ein Teil von Springer Nature.
Références
Radford A, Narasimhan K, Salimans T, Sutskever I (2018) Improving language understanding by generative pre-training. OpenAI. https://cdn.openai.com/research-covers/language-unsupervised/language_understanding_paper.pdf . Zugegriffen: 22. Nov. 2023
Thirunavukarasu AJ, Ting DSJ, Elangovan K, Gutierrez L, Tan TF, Ting DSW (2023) Large language models in medicine. Nat Med 29(8):1930–1940
doi: 10.1038/s41591-023-02448-8
pubmed: 37460753
Khurana D, Koli A, Khatter K, Singh S (2023) Natural language processing: state of the art, current trends and challenges. Multimed Tools Appl 82(3):3713–3744
doi: 10.1007/s11042-022-13428-4
pubmed: 35855771
(2023) Introduction to large language models. https://developers.google.com/machine-learning/resources/intro-llms . Zugegriffen: 10. Sept. 2023
Vaswani A, Shazeer N, Parmar N, Uszkoreit J, Jones L, Gomez AN et al (2017) Attention is all you need. arXiv
Manning C (2022) Human language understanding & reasoning. Dædalus 151:127–138 ( https://www.amacad.org/publication/human-language-understanding-reasoning (Letzter Zugriff: 22.11.2023))
Alkaissi H, McFarlane SI (2023) Artificial hallucinations in chatGPT: implications in scientific writing. Cureus 15(2):e35179
pubmed: 36811129
pmcid: 9939079
Devlin J, Chang MW, Lee K, Toutanova KBERT (2018) Pre-training of deep bidirectional transformers for language understanding. arXiv
Floridi L, Chiriatti M (2020) GPT-3: its nature, scope, limits, and consequences. Minds Mach 30(4):681–694
doi: 10.1007/s11023-020-09548-1
OpenAI (2023) ChatGPT can now see, hear, and speak. https://openai.com/blog/chatgpt-can-now-see-hear-and-speak . Zugegriffen: 26. Sept. 2023
Sonntagbauer M, Haar M, Künstliche Intelligenz KS (2023) Wie werden ChatGPT und andere KI-Anwendungen unseren ärztlichen Alltag verändern? Med Klin Intensiv Notfallmed 118(5):366–371
doi: 10.1007/s00063-023-01019-6
Security GFO for I (2023) Large language models – opportunities and risks for industry and authorities. https://www.bsi.bund.de/SharedDocs/Downloads/EN/BSI/KI/AI-in-lLanguage-processing.pdf?__blob=publicationFile&;v=2 . Zugegriffen: 22. Nov. 2023
Lewis P, Perez E, Piktus A, Petroni F, Karpukhin V, Goyal N et al (2020) Retrieval-augmented generation for knowledge-intensive NLP tasks. arXiv
Yue X, Wang B, Zhang K, Chen Z, Su Y, Sun H (2023) Automatic evaluation of attribution by large language models. arXiv
doi: 10.18653/v1/2023.findings-emnlp.307
Glaese A, McAleese N, Trębacz M, Aslanides J, Firoiu V, Ewalds T et al (2022) Improving alignment of dialogue agents via targeted human judgements. arXiv
Shuster K, Xu J, Komeili M, Ju D, Smith EM, Roller S et al (2022) BlenderBot 3: a deployed conversational agent that continually learns to responsibly engage. arXiv
Microsoft (2023) Announcing Python in Excel: Combining the power of Python and the flexibility of Excel. https://techcommunity.microsoft.com/t5/excel-blog/announcing-python-in-excel-combining-the-power-of-python-and-the/ba-p/3893439 . Zugegriffen: 10. Sept. 2023
Elicit (2023) https://elicit.org/ . Zugegriffen: 10. Sept. 2023
QuillBot (2023) https://quillbot.com . Zugegriffen: 10. Sept. 2023
Grammarly (2023) https://www.grammarly.com . Zugegriffen: 15. Sept. 2023
Nature Submission Guidelines (2023) https://www.nature.com/nature/for-authors/initial-submission . Zugegriffen: 15. Sept. 2023
Transformer CGP trained, Zhavoronkov A (2022) Rapamycin in the context of Pascal’s Wager: generative pre-trained transformer perspective. Oncoscience 9:82–84
doi: 10.18632/oncoscience.571
Kung TH, Cheatham M, Medenilla A, Sillos C, Leon LD et al (2022) Performance of ChatGPT on USMLE: potential for AI-assisted medical education using large language models. medRxiv. 2022;2022.12.19.22283643
Woll C (2011) Wie lassen sich Forschungsleistungen messen? Entwicklung eines Indikatorensets zur Anwendung auf dem Gebiet der Berufsbildungsforschung. Bundesinstitut für Berufsbildung
Hoffmann F, Allers K, Rombey T, Helbach J, Hoffmann A, Mathes T et al (2021) Nearly 80 systematic reviews were published each day: observational study on trends in epidemiology and reporting over the years 2000–2019. J Clin Epidemiol 138:1–11
doi: 10.1016/j.jclinepi.2021.05.022
pubmed: 34091022
(2023) US) NC for BI. PubMed. https://eutils.ncbi.nlm.nih.gov/entrez/eutils/esearch.fcgi . Zugegriffen: 15. Sept. 2023
Singer M, Deutschman CS, Seymour CW, Shankar-Hari M, Annane D, Bauer M et al (2016) The third international consensus definitions for sepsis and septic shock (sepsis-3). JAMA 315(8):801–810
doi: 10.1001/jama.2016.0287
pubmed: 26903338
pmcid: 4968574
Deng Y, Sander A, Faulstich L, Denecke K (2019) Towards automatic encoding of medical procedures using convolutional neural networks and autoencoders. Artif Intell Med 93:29–42
doi: 10.1016/j.artmed.2018.10.001
pubmed: 30385092
Nuthakki S, Neela S, Gichoya JW, Purkayastha S (2019) Natural language processing of MIMIC-III clinical notes for identifying diagnosis and procedures with neural networks. arXiv
Tang B, Wu Y, Jiang M, Chen Y, Denny JC, Xu H (2013) A hybrid system for temporal information extraction from clinical text. J Am Med Inform Assoc 20(5):828–835
doi: 10.1136/amiajnl-2013-001635
pubmed: 23571849
pmcid: 3756274
Sun W, Rumshisky A, Uzuner O (2013) Temporal reasoning over clinical text: the state of the art. J Am Med Inform Assoc 20(5):814–819
doi: 10.1136/amiajnl-2013-001760
pubmed: 23676245
pmcid: 3756277
Kirchenbauer J, Geiping J, Wen Y, Katz J, Miers I, Goldstein T (2023) A Watermark for large language models. arXiv
Madiega T (2023) Artificial intelligence act—EU legislation in progress. https://www.europarl.europa.eu/RegData/etudes/BRIE/2021/698792/EPRS_BRI (2021)698792_EN.pdf. Zugegriffen: 15. Sept. 2023
Turnetin https://www.turnitin.com/de . Zugegriffen: 26. Sept. 2023