Вверх ↑
Ответов: 2059
Рейтинг: 131
#1: 2021-06-22 20:24:52 ЛС | профиль | цитата
KPG,
Здесь всё абсолютно понятно.
Как же далека нейросеть от Яндекса, от понимания фактов из i-net и их "осмысленного" связывания, или нет?

Нет!
У Яндекса сделано по типу word2vec, собственно это и есть видоизменённый ворд2вектор.
К примеру открываем сервис Балабоба
Сервис Балабола сделан на цепях Маркова.
https://morphs.ru/posts/2017/05/09/text-genertors
http://aftamat4ik.ru/generator-teksta-na-cepyakh-markova/
https://tproger.ru/translations/markov-chains/
И там, и там даже речи не может быть о осмысленности.
Сбер неплохо обучил сеть:
https://habr.com/ru/company/sberbank/blog/524522/
https://sbercloud.ru/ru/warp/gpt-3 - но это тоже цепи Маркова.
(По моему я выкладывал) Эта сеть не то что книжку, даже рассказа не может написать - сюжет ей неведом!
Для осмысленности нужны правила - это Пролог(доказательство, вывод резюме...). Но Пролог плохо дружит с ассоциациями(нужно, как минимум, ста мужикам писать правила всю жизнь на каждый чих, ...
Нужен симбиоз и разделение "труда". Вообще, цепи Маркова это тупик для этого дела.
Другая архитектура сети нужна и не одна сетка: самоорганизующиеся карты Кохонена и сеть Хопфилда(вместо Хопфилда я использую FANN, почти одно и тоже.
карма: 6

0
Редактировалось 8 раз(а), последний 2021-06-22 21:46:38