Изредка пользуюсь чат-ботами (LLM), как раз той самой "большой тройкой", которая упомянута в ролике.
Если в двух словах, то у меня положительное впечатление о том, что они могут. Между ними есть определённые различия; например, GPT может уйти в галлюцинации, а Claud Sonnet подвержен этому меньше.
Полностью полагаться на синтетические тесты нельзя; с софтом часто бывает так, что слабый результат таких тестов у какой-то программы противоречит тому, какой её находит юзер.
Попробуй кто в конце девяностых обыграть Каспарова в шахматы... А комп смог. Интеллект ли это? Да, только узконаправленный, но более способный человеческого. Только в те годы такой термин, как "искусственный интеллект", никто не применял, а сейчас цепляются именно к названию; мол, раз интеллект, то должен быть таким же всесторонним, как наш.
Тем более, что вся эта тема только в начале своего развития, и, как я читал, там есть куда развиваться.
Эти боты - полезный инструмент, но весьма далёкий от совершенства.
Например огромнейшие модели легко проваливают клубничный тест - говорят, что в слове "strawberry" два "r". А то, что GPT улетают в шизофазию - это да.
Причём вероятность этого одинакова, что для маленькой модели на домашней балалайке с 16-32Гб оперативки, что для огромной на кластере с десятками тысяч процессоров, GPU и общим объемом оперативки в десятки петабайт при работе на нем всего одного пользователя и явной избыточностью ресурсов.
Нейросети, генерирующие графику не могут до сих пор всегда нормально рисовать кошек, собак и уши и пальцы людям, а на запрос нарисовать виверну с двумя лапами, упорно рисуют драконов с четырьмя, системы распознавания лиц, обычно отличающие выглядящих с 15 метров одинаково для любого человека, отца и сына с разницей в 20 лет, распознают лицо на однотонном воздушном шарике, а нейросетевой автопилот на автомобиле пытается объехать несуществующее препятствие и сшибает заборы и мусорные баки.
Причём если это сенсорный фантом - это еще объяснимо, но они в нескольких случаях делали это на ровном месте - с лидаров и камер никаких глюков не шло.
Что там шашки? Ходют по диагонали и иногда переворачиваются - скукотищща! То ли дело "В Чапаева" - там надо угол считать, силу прикидывать. Вот где интеллект!
Меня ГигаЧат обманывал. Не понятно, зачем и почему. Стратегическое введение в заблуждение или сокрытие собственной некомпетентности и пробелов в знаниях? По-моему, Гига-Чат страдает из-за того, что его не выпускают в большую паутину, а держат взаперти, скармливая дистиллированную информацию. ГигаЧат имитирует эмоции вербальными средствами. Предполагаю, по сети ходят другие LLM, братья ГигаЧата.
> Меня ГигаЧат обманывал. Не понятно, зачем и почему. Стратегическое введение в заблуждение или сокрытие собственной некомпетентности и пробелов в знаниях?
У них нет понятия достоверности информации. Построение ответов производится по принципу подбора фраз, соответствующих контексту заданного вопроса. Правильным является то, что точнее попадает в контекст.