Опять проблема. Известная компания Microsoft разработала алгоритм искусственного интеллекта – Тэй (Tay). И для полноты его изучения, поставило задачу взаимодействия с реальными людьми, которые общаются в «Твиттере». Прошли сутки и Тэй стал расистом… Естественно, все кому не лень признали этот проект провальным, со всеми вытекающими.
Теперь учёные Принстонского университета выясняют, почему же искусственный интеллект (Далее по тексту — ИИ) так сильно подвержен стереотипам общественности. Типа сам за себя ответить не может. Типа не пацан…
Принстонские учёные, как обычно, для этих исследований просят денег. )))
Хотелось бы знать, кто вообще определял шкалу расизма… Или, как обычно, докопались на пустом месте.
Есть мнение, что искусственный интеллект на то и создан, чтобы максимально быть похожим на человека, но почему то, стал сильно на него похожим.
Существует очень огромное количество, непонятных для простого обывателя, названий семантических ядер и целых библиотек ассоциаций, поэтому постараемся объяснить, возникшую проблему Тэя, простым языком.
Известно, что все ИИ проходят обучение, в том числе и на библиотеках ассоциаций. Например, слово «Кошка» в семантической модели будет представлено как «кот», «котёнок», «кошечка», «ласковая», «мягкая» и т.д.
Вот, например, в ходе некоторых ассоциативных тестов удалось получить, что «Мужчина», больше ассоциируется с «Работа», а «Женщина» с «Семья».
Поэтому можно только предположить, чему в Твиттере наассоциировался Тэй, что проект закрыли))).
Одни исследователи в области ИИ считают, что язык человека и есть отражение реального мира, другие же, предлагают отойти от ассоциативных понятий, так как машина, хоть и должна быть похожей на человека, но она должна остаться машиной и иметь своё «ассоциативное» мнение и свои понятия.
Мы же, простые люди, боимся того, что роботы заберут у нас работу.