Удивительная способность ChatGPT мгновенно генерировать простые для понимания ответы на вопросы людей может изменить правила игры для людей, обращающихся за медицинской консультацией, но в новой статье в медицинском журнале говорится, что все не так просто. Как и ChatGPT.
Корпоративный вице-президент Microsoft Питер Ли провел последние шесть месяцев, экспериментируя с последней версией ChatGPT, платформы искусственного интеллекта, предназначенной для ответов на вопросы пользователей в разговорном тоне.
Как и другие так называемые большие языковые парадигмы, ChatGPT, созданный стартапом OpenAI из Сан-Франциско, обучается на огромных объемах данных, доступных в Интернете, книгах и других источниках. Он использует алгоритмы для генерации слов в последовательности, основанной на частоте, с которой они появляются вместе в Интернете. Поисковая система Microsoft Bing теперь использует ChatGPT.
Ли, ученый-компьютерщик, который руководит исследованиями Microsoft по всему миру, особенно заинтересован в медицинском и научном потенциале ChatGPT.
ранее:ChatGPT готов опровергнуть медицинскую информацию. К лучшему и худшему.
он Статья была опубликована в четверг в New England Journal of Medicine. О потенциальном использовании ChatGPT для записи медицинских заметок, предоставления диагностических возможностей, обучения врачей и пациентов, а также анализа и обобщения данных. По его словам, особенно примечательной является способность интерфейса давать эмпатические реакции, подобные человеческим.
Мы спросили Ли, который также является соавтором будущей книги «Революция ИИ в медицине: GPT-4 и не только», о его волнении и опасениях по поводу последней версии ChatGPT, теперь ChatGPT-4, которая была недавно выпущенный. Мы также задавали те же вопросы на ChatGPT, но, поскольку его доступность все еще ограничена, ответы исходят от ChatGPT-3.
Вопрос: Предоставляет ли ChatGPT достоверную медицинскую информацию?
для меня: Лично я не доверяю моделям такого уровня сложности для своих личных советов или информации о здоровье и был бы обеспокоен, если бы врачи и медсестры использовали их для принятия медицинских решений.
ЧатGPT: ChatGPT — это языковая модель, которая обучается на огромных объемах текстовых данных, включая медицинскую информацию. Однако важно отметить, что ChatGPT не является медицинским работником, и его ответы не следует рассматривать как медицинские рекомендации.
Хотя ChatGPT может предоставлять информацию на медицинские темы, важно проверить эту информацию у квалифицированного медицинского работника, прежде чем принимать какие-либо решения относительно вашего здоровья. Также существует риск того, что ChatGPT может предоставить неточную или устаревшую медицинскую информацию, что может нанести вред.
Вопрос: Какие типы ошибок делает ChatGPT и почему?
для меня: Формы GPT, как правило, очень плохо извлекают информацию. Это почти намеренно, потому что модели GPT не хотят перекомпилировать свои обучающие данные. Если вы спросите его о конкретном источнике, например, о ссылке на статью, он не сможет оживить точный источник, поэтому он что-то выдумывает, он «галлюцинирует».
ЧатGPT: ChatGPT может допускать ошибки, такие как предоставление неуместных или неправильных ответов, повторение или создание ответов, не соответствующих контексту разговора.
Эти ошибки могут возникать из-за того, что ChatGPT обучается на огромных объемах текстовых данных, включая непроверенную и потенциально предвзятую информацию, что может привести к неправильной или устаревшей информации.
Кроме того, на ответы ChatGPT может влиять качество получаемых им входных данных, что может привести к неуместным или не относящимся к теме ответам.
Вопрос: Чем ChatGPT-4 лучше, чем ChatGPT-3?
для меня: Мы достигаем другого уровня интеллекта. Главное, у вас есть эта модель ИИ, которая имеет много когнитивных возможностей, и у вас есть интерфейс чата. В конце концов, это действительно естественно для взаимодействия.
ЧатGPT: Разумно ожидать улучшений в таких областях, как масштаб, точность, многоязычные возможности, понимание контекста и согласованность.
Вопрос: ChatGPT иногда выглядит как реальный человек. Есть ли у ChatGPT «теория разума», то есть способность представлять психические состояния других людей?
для меня: Вы не можете этого сделать. Это машина. Но вы можете спросить GPT-4, что пациент (в данной ситуации) назвал бы мышлением и чувством. Он способен оценить это состояние души. … Это выражается в чувстве сочувствия к пациентам.
ЧатGPT: Нет, у ChatGPT нет теории разума.
ChatGPT — это модель машинного обучения, которая использует статистические шаблоны и алгоритмы для генерации ответов на вводимые данные на естественном языке. У него нет сознания, эмоций или убеждений, а также он не способен понимать или делать выводы о психических состояниях пользователей-людей.
Хотя ChatGPT способен генерировать ответы, которые могут быть чуткими, привлекательными и разговорными, он не обладает теорией разума, которая является критическим аспектом человеческого познания и социального взаимодействия.
Вопрос: Стоит ли использовать ChatGPT в медицине?
для меня: У общества есть выбор. Мы можем попытаться замедлить или отключить эту технологию, потому что не до конца понимаем риски. Второй аргумент более фаталистический: «Его не остановить. Мы могли бы попробовать». Третий вариант, который я считаю единственно рациональным, но он должен быть сделан намеренно, — это тщательно продумать, как мы можем интегрировать эту технологию в нашу жизнь, чтобы мы могли достичь того, чего не могут сделать ни люди в одиночку, ни ИИ в одиночку. . Надеюсь, медицинское сообщество и общественность выберут третий вариант.
ЧатGPT: Не следует полагаться на ChatGPT исключительно для получения медицинской консультации или диагностики. Хотя ChatGPT может предоставлять информацию на медицинские темы, он не является медицинским работником, и его ответы следует рассматривать только как информационные.
Однако ChatGPT может быть полезным инструментом для общего понимания медицинских концепций и терминологии. В любом случае важно проверить любую информацию, предоставленную ChatGPT, у квалифицированного медицинского работника, чтобы убедиться, что она точна и применима к вашей ситуации.
Свяжитесь с Карен Вайнтрауб по адресу [email protected].
Страхование здоровья и безопасности пациентов USA TODAY стало возможным частично благодаря гранту от Фонда Масимо по этике, инновациям и конкуренции в области здравоохранения. Фонд Масимо не вносит редакционный вклад.
«Писатель. Внештатный исследователь твиттера. Будущий кумир подростков. Заядлый пивной ниндзя».