W zależności od ilości danych do przetworzenia generowanie pliku może się wydłużyć.

Jeśli generowanie trwa zbyt długo można ograniczyć dane np. zmniejszając zakres lat.

Rozdział

Pobierz BibTeX

Tytuł

Fine-Tuned Transformers and Large Language Models for Entity Recognition in Complex Eligibility Criteria for Clinical Trials

Autorzy

[ 1 ] Wydział Informatyki i Telekomunikacji, Politechnika Poznańska | [ 2 ] Instytut Informatyki, Wydział Informatyki i Telekomunikacji, Politechnika Poznańska | [ SzD ] doktorant ze Szkoły Doktorskiej | [ P ] pracownik

Dyscyplina naukowa (Ustawa 2.0)

[2.3] Informatyka techniczna i telekomunikacja

Rok publikacji

2024

Typ rozdziału

rozdział w monografii naukowej / referat

Język publikacji

angielski

Słowa kluczowe
EN
  • prompt learning
  • LLM
  • clinical trial eligibility criteria
  • named entity recognition
Streszczenie

EN This paper evaluates the gpt-4-turbo model’s proficiency in recognizing named entities within the clinical trial eligibility criteria. We employ prompt learning to a dataset comprising 49 903 criteria from 3 314 trials, with 120 906 annotated entities in 15 classes. We compare the performance of gpt-4-turbo to state-of-the-art BERT-based Transformer models. Contrary to expectations, BERT-based models outperform gpt-4-turbo after moderate fine-tuning, in particular in low-resource settings. The CODER model consistently surpasses others in both lowand high-resource environments, likely due to term normalization and extensive pre-training on the UMLS thesaurus. However, it is important to recognize that traditional NER evaluation metrics, such as precision, recall, and the F1 score, can unfairly penalize generative language models, even if they correctly identify entities.

URL

https://aisel.aisnet.org/cgi/viewcontent.cgi?article=1605&context=isd2014

Książka

Harnessing Opportunities: Reshaping ISD in the post-COVID-19 and Generative AI Era (ISD2024 Proceedings)

Zaprezentowany na

32nd International Conference on Information Systems Development ISD 2024, 26-28.08.2024, Gdańsk, Polska

Punktacja Ministerstwa / rozdział

20

Punktacja Ministerstwa / konferencja (CORE)

140

Ta strona używa plików Cookies, w celu zapamiętania uwierzytelnionej sesji użytkownika. Aby dowiedzieć się więcej przeczytaj o plikach Cookies i Polityce Prywatności.