>Те условно говоря "журналист", который не понимает о чем говорит, но ловко это делает.
это сильно зависит от области применения. В компьютерных переводчиках ИИ (математические модели) уже забили лингвистическо-математические модели.
существенно дешевле и лучше.
но для общего контекста - естественно нельзя этими методами получить больше, чем вложили. В отличии от обучения человека.
Но и с людьми - далеко не каждый может пойти дальше.
>книг) да, убиты практически в ноль. Переводчик с японского не нужен,
>но чтобы пользоваться результатом перевода нужно понимать тему.
ChatGPT переводится как Generative Pre‑trained Transformer. Смысл его кодировка текста в набор данных(векторов) в результате которого происходит выделение главного объекта в сложных предложениях, его свойств и пр. Или трансформация текста в вектора разной подчиненности. При применении декодера на разные языки трансформер превращается в переводчика.
Поэтому возникает иллюзия, что у него есть мозги. Хотя всё дело в обучающих данных, по которым выделяются главные объекты в предложении и их свойства. Поэтому переформулирование вопроса может давать другой результат, хотя по сути это лишь изменение ранжирования важности слов в поисковом запросе, по которому он извлекает из базы готовые тексты. При этом он может из текста удалять куски, которые не подходят к созданной векторной модели, а декодеры могут изменять предложения, сохраняя их смысл, т.к. они не переводят исходный текст, а строят предложения из векторов. Тут возникает еще большая иллюзия наличия мозгов, т.к. создается впечатление, что машина говорит своими словами.