background preloader

Нейронные сети и ИИ

Facebook Twitter

Руководство хакера по нейронным сетям. Глава 2: Машинное обучение. Обучение сети на основе метода опорных векторов (SVM) / Блог компании PAYSTO. Содержание: Глава 1: Схемы реальных значений.

Руководство хакера по нейронным сетям. Глава 2: Машинное обучение. Обучение сети на основе метода опорных векторов (SVM) / Блог компании PAYSTO

Руководство хакера по нейронным сетям. Схемы реальных значений. Шаблоны в «обратном» потоке. Пример «Один нейрон» / Блог компании PAYSTO / Хабрахабр. Содержание Часть 1: Введение Глава 1: Схемы реальных значений Базовый сценарий: Простой логический элемент в схеме Цель Стратегия №1: Произвольный локальный поиск.

Руководство хакера по нейронным сетям. Схемы реальных значений. Шаблоны в «обратном» потоке. Пример «Один нейрон» / Блог компании PAYSTO / Хабрахабр

Сканеры безопасности: автоматическая валидация уязвимостей с помощью нечетких множеств и нейронных сетей / Блог компании Positive Technologies / Хабрахабр. Сейчас в мире существует большое количество сканеров информационной безопасности разных компаний (в том числе — MaxPatrol, XSpider и анализатор кода Application Inspector производства Positive Technologies).

Сканеры безопасности: автоматическая валидация уязвимостей с помощью нечетких множеств и нейронных сетей / Блог компании Positive Technologies / Хабрахабр

Подобные инструменты различаются ценой, качеством сканирования, типами определяемых уязвимостей, методами их поиска и еще десятками параметров. При создании сканеров важную роль играют методики тестирования их работы, особое место в которых занимает конкурентный анализ подобных продуктов. Как правило, результатом работы любого сканера безопасности является список обнаруженных уязвимостей, полученный в процессе анализа веб-приложения. Руководство хакера по нейронным сетям. Схемы реальных значений. Стратегия №3: Аналитический градиент / Блог компании PAYSTO / Хабрахабр.

Содержание.

Руководство хакера по нейронным сетям. Схемы реальных значений. Стратегия №3: Аналитический градиент / Блог компании PAYSTO / Хабрахабр

Вероятностное программирование – ключ к искусственному интеллекту? Немного воды Уже более полутора лет назад прошла новость о том, что «DARPA намерено совершить революцию в машинном обучении».

Вероятностное программирование – ключ к искусственному интеллекту?

Конечно, DARPA всего лишь выделила деньги на исследовательскую программу, связанную с вероятностным программированием. Само же вероятностное программирование существует и развивается без DARPA достаточно давно, причем исследования ведутся, как в ведущих университетах, таких как MIT, так и в крупных корпорациях, таких как Microsoft. И вовсе не зря DARPA, Microsoft, MIT и т.д. обращают пристальное внимание на эту область, ведь она по-настоящему перспективна для машинного обучения, а, может, и для искусственного интеллекта в целом. А что действительно скрывают нейронные сети? / Блог компании ABBYY. Несколько дней назад на хабре вышла статья Что скрывают нейронные сети?.

А что действительно скрывают нейронные сети? / Блог компании ABBYY

Она является вольным пересказом английской статьи The Flaw Lurking In Every Deep Neural Net, а та в свою очередь рассказывает о конкретном исследовании некоторых свойств нейронных сетей (Интригующие свойства нейронных сетей). Habrahabr. Статья является вольным переводом The Flaw Lurking In Every Deep Neural Net.

habrahabr

Недавно опубликованная статья с безобидным заголовком является, вероятно, самый большой новостью в мире нейронных сетей с момента изобретения алгоритма обратного распространения. Но что же в ней написано? В статье "Интригующие свойства нейронных сетей" за авторством Christian Szegedy, Wojciech Zaremba, Ilya Sutskever, Joan Bruna, Dumitru Erhan, Ian Goodfellow and Rob Fergus, команды, включающей авторов из проекта Google по глубокому обучению, кратко описываются два открытия в поведении нейронных сетей, противоречащие тому, что мы думали прежде. И одно из них, честно говоря, ошеломляет. Первое открытие ставит под сомнение предположение, которое мы так долго считали верным, что нейронные сети упорядочивют данные. Стандартный способ выяснить, так ли это на самом деле, это найти для конкретного нейрона такое множество входных данных, которое максимизирует выходное значение. Habrahabr. В комментариях к моей предыдущей статье о происходящем в нейронной сети проскользнула фраза, что, к сожалению, визуализация процессов обучения редко бывает возможна на реальных задачах с большими данными.

habrahabr

Действительно очень жаль. Давайте же попытаемся это исправить. Под катом я предлагаю простую и, как ни удивительно, информативную визуализацию процесса обучения нейронной сети, не зависящую ни от характера задачи, ни от свойств самой сети, то есть доступную для сколь угодно сложной задачи. Подготовка Задача для решения сетью взята из прошлой статьи. Что происходит в мозгах у нейронной сети и как им помочь. В последнее время на Хабре появилось множество статей о нейронных сетях.

Что происходит в мозгах у нейронной сети и как им помочь

Что такое Томита-парсер, и как с его помощью извлекать факты из текстов / Блог компании Яндекс. Мечта о том, чтобы машина понимала человеческий язык, завладела умами еще когда компьютеры были большими, а их производительность – маленькой.

Что такое Томита-парсер, и как с его помощью извлекать факты из текстов / Блог компании Яндекс

Главная проблема на пути к этому заключается в том, что грамматика и семантика естественных языков слабо поддаются формализации. Кроме того, от языков программирования их отличает присутствие многозначности. Конечно, мечта о полноценной коммуникации с компьютером на естественном языке пока еще далека от полноценной реализации примерно настолько же, как и мечта об искусственном интеллекте. Однако некоторые результаты есть уже сейчас: машину можно научить находить нужные объекты в тексте на естественном языке, находить между ними связи и представлять необходимые данные в формализованном виде для дальнейшей обработки.

Логика мышления. Часть 11. Динамические нейронные сети. Ассоциативность. Этот цикл статей описывает волновую модель мозга, серьезно отличающуюся от традиционных моделей. Настоятельно рекомендую тем, кто только присоединился, начинать чтение с первой части. Наиболее просты для понимания и моделирования нейронные сети, в которых информация последовательно распространяется от слоя к слою. Подав сигнал на вход, можно так же последовательно рассчитать состояние каждого из слоев. Эти состояния можно трактовать как набор описаний входного сигнала. Пока не изменится входной сигнал, останется неизменным и его описание. Более сложная ситуация возникает, если ввести в нейронную сеть обратные связи.

Алгоритм Улучшенной Самоорганизующейся Растущей Нейронной Сети (ESOINN) / Блог компании Itseez. В моей предыдущей статье о методах машинного обучения без учителя был рассмотрен базовый алгоритм SOINN — алгоритм построения самоорганизующихся растущих нейронных сетей. Как было отмечено, базовая модель сети SOINN имеет ряд недостатков, не позволяющих использовать её для обучения в режиме lifetime (т.е. для обучения в процессе всего срока эксплуатации сети). К таким недостаткам относилась двухслойная структура сети, требующая при незначительных изменениях в первом слое сети переобучать второй слой полностью. Также алгоритм имел много настраиваемых параметров, что затрудняло его применение при работе с реальными данными.

В этой статье будет рассмотрен алгоритм An Enhanced Self-Organizing Incremental Neural Network, являющийся расширением базовой модели SOINN и частично решающий озвученные проблемы. Основная идея всех алгоритмов SOINN заключается в построении вероятностной модели данных на основе предоставляемых системе образов. Деревья принятия решений на JavaScript. В качестве практического приложения к предыдущей статье, хочу предоставить крошечную JavaScript библиотеку для построения деревьев и леса принятия решений. Ниже представлены демки, которые демонстрируют классификацию точек на двухмерной плоскости — определение цвета точки, базируясь на значениях её координат (x, y): Данные алгоритмы точно так же можно применить и для классификации объектов многомерного пространства. Объекты обучающей выборки могут содержать как числовые так и нечисловые атрибуты: В зависимости от типа атрибута используются различные предикаты для разбиения обучающего множества Давайте рассмотрим использование данной библиотеки на игрушечном примере.

Нейросистема: революция сознания. Попробуем найти законченную форму для изложенных ранее знаний и через нее совершить качественный скачок в понимании происходящих процессов. Если вы обладаете абстрактным мышлением и способны ради экперимента отказаться от своих устоявшихся взглядов, то поехали. Для начала очень важно понять следующее. 1. Пусть компьютер сам принимает решение или пишем ИИ для игры вместе. Вы когда-нибудь задумывались о том, насколько просто написать свой искусственный интеллект, который сам будет принимать решения в игре?

А ведь это действительно просто. Пусть для начала он принимает случайные решение, но позже вы можете его воспитать, научить анализировать ситуацию, и тогда он станет принимать осознанные решения. Искусственный интеллект под Android с открытым API / Блог компании i-Free. Только ленивый не знает сегодня о том, что такое голосовой помощник Siri. Когда два года назад этот продукт был показан на презентации нового iPhone 4S, многие посмотрели на развитие IT-индустрии по-новому. Алгоритм обучения многослойной нейронной сети методом обратного распространения ошибки (Backpropagation) Здравствуйте, уважаемые хабропользователи! Тема нейронных сетей была уже ни раз освещена на хабре, однако сегодня я бы хотел познакомить читателей с алгоритмом обучения многослойной нейронной сети методом обратного распространения ошибки и привести реализацию данного метода.

SOINN — самообучающийся алгоритм для роботов.