От Pout
К Г.С.
Дата 29.03.2025 10:55:33
Рубрики ВВС;

Re: для дидактических образовательных целей "ИИ" вреден

>Я работаю с разными ИИ, которые распознают хитросформатированные тексты, в т.ч. рукописные, на всевозможных языках в разных областях от софта до медицины и правлю их, когда они глупят или начинают считать себя слишком умными.

проблЭма
FT: Человечество тупеет с каждым годом. С 2010 года наблюдается снижение интеллекта.
https://www.ft.com/content/a8016c64-63b7-458b-a371-e0e1c54a13fc

В «развитых» странах 25% взрослых не могут справиться с элементарной математикой. В США таких уже 35%. Все меньше людей могут сосредоточиться на одном деле, решать базовые задачи и думать логически - зато бесконечно скроллят ленты.
Половина опрошенных за год прочитали только одну книгу, а 45% подростков вообще не читают

Mat Honan
The answer engines
The way we search the web is changing, and it’s paving the way to a more AI-saturated future.
 volume 128 number 1 January/February 2025
MIT Review
Языковые модели имеют тенденцию выдумывать всякую ерунду — они могут галлюцинировать бессмыслицу. Более того, генеративный ИИ может каждый раз выдавать совершенно новый ответ на один и тот же вопрос или давать разные ответы разным людям на основе того, что он о них знает. Это может означать конец канонического отвечания

Абсолютная импотентность справиться с математикой начальной школы
Отрицательная "эффективность"

разработчики ИИ из Apple опубликовала статью, в которой опровергли способность больших языковых моделей к рассуждениям. Основная идея материала — ИИ не умеет думать как человек, а лишь имитирует мышление.
Математические рассуждения в больших языковых моделях
мы исследовали логические возможности больших языковых моделей (LLM) и ограничения текущих оценок на GSM8K. Мы представили GSM-Symbolic - новый тест с несколькими вариантами, предназначенный для более глубокого изучения математических способностей LLM. Наше обширное исследование выявило значительную вариабельность производительности в разных вариантах решения одного и того же вопроса, что ставит под сомнение надежность текущих результатов GSM8K, основанных на одноточечных показателях точности. Мы обнаружили, что, хотя LLM демонстрируют некоторую устойчивость к изменениям имен собственных, они более чувствительны к изменениям числовых значений.
Мы также заметили, что эффективность работы LLM ухудшается по мере увеличения сложности вопросов.

Внедрение GSM-NoOp выявило критический недостаток в способности LLM. по-настоящему понимать математические концепты и извлекать необходимую информацию для решения задач.

https://arxiv.org/pdf/2410.05229
. doi: 10.48550/ARXIV.2404.14219. URL https://doi.org/10.48550/arXiv.2404.14219
GSM-Symbolic: Understanding the Limitations of Mathematical Reasoning in Large Language Models


От digger
К Pout (29.03.2025 10:55:33)
Дата 29.03.2025 17:43:38

Re: для дидактических...

>разработчики ИИ из Apple опубликовала статью, в которой опровергли способность больших языковых моделей к рассуждениям. Основная идея материала — ИИ не умеет думать как человек, а лишь имитирует мышление.

Это было понятно с самого начала. ИИ - разновидность машинного обучения.В самом классическом применении - это задача классификации, замое парвое применение нейросети - распознавание букв.Скармливаем модели набор известных единиц, тренируем модель, напускаем на набор неизвестных единиц, получаем "кто в шляпе, тот шпион".Не то чтобы человек работал не так, но результат - предсказуем. Где подобие по данному набору признаков годится как критерий - работает, где нет - не работает.

От AMX
К digger (29.03.2025 17:43:38)
Дата 31.03.2025 10:25:28

Re: для дидактических...

> Это было понятно с самого начала. ИИ - разновидность машинного обучения.В самом классическом применении - это задача классификации, замое парвое применение нейросети - распознавание букв.

Слово ИИ подразумевает, что для поиска на фото или видео вашего лица, тоже классическая задача сходная с распознаванием текста, алгоритм не нужно обучать вашему лицу, и он это способен сделать ничего не зная о вашем лице. Так оно в задаче поиска лица и есть, и решается именно так.

Если для этого требуется ваше изображение, то это алгоритмы поиска, чем эти чаты в общем и являются. ИИ там совсем немного в грамматике ответа.

От Г.С.
К Pout (29.03.2025 10:55:33)
Дата 29.03.2025 11:46:47

Нам электричество и вспашет и посеет...

Многие перечисленные вами проблемы родились задолго до ИИ.

Напр., еще в конце 70-х читал байку, как в американской лаборатории сотрудник полчаса искал свободный калькулятор, чтобы сложить несколько чисел, вместо того чтобы за минуту посчитать столбиком.

Немного позже знакомая попросила помочь по физике сыну, студенту 1-го курса техвуза. Выяснилось, что он понятия не имеет о тригонометрии. На подобное и сейчас жалуется благоверная, доцентствующая в МАДИ.

Для меня ИИ такая же полезная железяка, как компьютер. И он обучается в том смысле, что при переводе многовариантных терминов в техническом тексте начинает использовать мои. И даже подражать моей обработке тегов, которые он не понимает, как обрабатывать, и просто ранее копировал в произвольные места в тексте.

Но в сложных случаях ИИ начинает фантазировать, т.е. искать в своих базах что-то близкое по каким-то своим критериям.
Напр., когда я при переводе китайского текста с битмапа плохого качества увеличивал размер, разок сообщил мне, что это песня о Великой китайской стене, т.е. стал воспринимать отдельные пиксели в иероглифах как элементы нот!

От Pout
К Г.С. (29.03.2025 11:46:47)
Дата 29.03.2025 20:32:30

Re: Нам электричество

>Многие перечисленные вами проблемы родились задолго до ИИ.

>Напр., еще в конце 70-х читал байку, как в американской лаборатории сотрудник полчаса искал свободный калькулятор, чтобы сложить несколько чисел, вместо того чтобы за минуту посчитать столбиком.

>Немного позже знакомая попросила помочь по физике сыну, студенту 1-го курса техвуза. Выяснилось, что он понятия не имеет о тригонометрии. На подобное и сейчас жалуется благоверная, доцентствующая в МАДИ.

>Для меня ИИ такая же полезная железяка, как компьютер. И он обучается в том смысле, что при переводе многовариантных терминов в техническом тексте начинает использовать мои. И даже подражать моей обработке тегов, которые он не понимает, как обрабатывать, и просто ранее копировал в произвольные места в тексте.

>Но в сложных случаях ИИ начинает фантазировать, т.е. искать в своих базах что-то близкое по каким-то своим критериям.
>Напр., когда я при переводе китайского текста с битмапа плохого качества увеличивал размер, разок сообщил мне, что это песня о Великой китайской стене, т.е. стал воспринимать отдельные пиксели в иероглифах как элементы нот!


прокомментирую только заголовок
" у дураков мысли сходятся"

проходные (завлекательные) кадры из моих презентаций к занятиям со студентами по курсу (тема - цифровизация образования)

2023 осень

[312K]



и 25 весна (только что)
Перед этим занятием они эссе по топику написали, три часа их обсуждали, а к следующему вторнику напишут про ИИ


[255K]



От zero1975
К Г.С. (29.03.2025 11:46:47)
Дата 29.03.2025 13:16:00

Вы правильно подметили:

>Для меня ИИ такая же полезная железяка, как компьютер. И он обучается в том смысле, что при переводе многовариантных терминов в техническом тексте начинает использовать мои.

>Но в сложных случаях ИИ начинает фантазировать, т.е. искать в своих базах что-то близкое по каким-то своим критериям.

Я игрался с ChatGPT, а сейчас, увидев эту ветку - запросил у DeepSeek анализ источников по истории корпорации Боинг. Так вот, в первом же ответе была приведена одна несуществующая книга и одна, реквизиты которой (название, автор, год) были "склеены" из других книг. Причем, после просьбы проверить существование этих источников - DeepSeek тут же признал их фальшивость и выдал новую порцию ложной информации. И так по кругу - "Ой, я ошибся", "Ой, это недопустимо", "Ой, я исправлюсь" - и так до переполнения чата. Впечатления были в точности такие же, как при приёме экзамена у двоечника, который где-то что-то слышал, и на ходу сочиняет правдоподобный (по его представлениям) ответ.

Вы правильно подметили: это инструмент, который в чем-то может быть полезным - я вот в потоке фальши нашел таки 3 реально существующих солидных книги, которых у меня не было. И не уверен, что традиционным поисковиком нашел бы их быстрее. Но пользоваться этим инструментом можно только в том случае, если вы способны сами проверить ответы ИИ на вшивость.

P.S. А с другой стороны: интеллект студента-двоечника - это ли не достижение? Хотя, в глазах двоечника обычно видна хотя бы тень сомнения - как у пелевинского мальчика с ведром. А тут...