Может ли компьютер понимать и использовать естественный человеческий язык
Обновлено: 21.11.2024
Обработка естественного языка направлена на создание машин, которые понимают и реагируют на текстовые или голосовые данные, а также реагируют собственным текстом или речью почти так же, как люди.
Что такое обработка естественного языка?
Обработка естественного языка (NLP) относится к области компьютерных наук, а точнее к области искусственного интеллекта или ИИ, связанной с предоставлением компьютерам возможности понимать текст и произносимые слова почти так же, как люди.
НЛП объединяет вычислительную лингвистику — моделирование человеческого языка на основе правил — со статистическими моделями, машинным обучением и моделями глубокого обучения. Вместе эти технологии позволяют компьютерам обрабатывать человеческий язык в виде текстовых или голосовых данных и «понимать» его полное значение, включая намерения и чувства говорящего или пишущего.
НЛП управляет компьютерными программами, которые переводят текст с одного языка на другой, реагируют на голосовые команды и быстро обобщают большие объемы текста — даже в режиме реального времени. Скорее всего, вы взаимодействовали с НЛП в виде голосовых систем GPS, цифровых помощников, программного обеспечения для диктовки речи в текст, чат-ботов для обслуживания клиентов и других потребительских удобств. Но NLP также играет все более важную роль в корпоративных решениях, помогающих упростить бизнес-операции, повысить производительность сотрудников и упростить критически важные бизнес-процессы.
Задания НЛП
Человеческий язык полон неоднозначностей, из-за чего невероятно сложно написать программное обеспечение, точно определяющее предполагаемое значение текстовых или голосовых данных. Омонимы, омофоны, сарказм, идиомы, метафоры, исключения из грамматики и использования, вариации в структуре предложений — это лишь некоторые из нарушений человеческого языка, на изучение которых у людей уходят годы, но программисты должны научить приложения, управляемые естественным языком, распознавать и с самого начала точно понять, будут ли эти приложения полезными.
Некоторые задачи НЛП разбивают человеческий текст и голосовые данные таким образом, чтобы помочь компьютеру разобраться в том, что он получает. Некоторые из этих задач включают следующее:
- Распознавание речи, также называемое преобразованием речи в текст, представляет собой задачу надежного преобразования голосовых данных в текстовые данные. Распознавание речи требуется для любого приложения, которое следует голосовым командам или отвечает на голосовые вопросы. Что особенно затрудняет распознавание речи, так это то, как люди говорят: быстро, нечленораздельно, с разным ударением и интонацией, с разным акцентом и часто с неправильной грамматикой.
- Тегирование части речи, также называемое грамматическим тегированием, представляет собой процесс определения части речи определенного слова или фрагмента текста на основе его использования и контекста. Часть речи определяет «сделать» как глагол в «Я могу сделать бумажный самолетик» и как существительное в «Какой марки автомобиля у тебя есть?»
- Устранение многозначности слова — это выбор значения слова с несколькими значениями в процессе семантического анализа, который определяет слово, которое имеет наибольший смысл в данном контексте. Например, устранение неоднозначности смысла слова помогает различать значение глагола "сделать" в словах "сделать оценку" (достичь) и "сделать ставку" (место).
- Распознавание именованных объектов, или NEM, идентифицирует слова или фразы как полезные объекты. NEM определяет «Кентукки» как местоположение или «Фред» как мужское имя.
- Разрешение по взаимной ссылке — это задача определить, относятся ли два слова к одному и тому же объекту и когда. Наиболее распространенным примером является определение лица или объекта, к которому относится определенное местоимение (например, «она» = «Мэри»), но это также может включать в себя определение метафоры или идиомы в тексте (например, пример, в котором « медведь не животное, а большой волосатый человек).
- Анализ настроений пытается извлечь из текста субъективные качества — отношение, эмоции, сарказм, замешательство, подозрительность.
- Создание естественного языка иногда называют противоположностью распознаванию речи или преобразованию речи в текст. это задача перевода структурированной информации на человеческий язык.
Инструменты и подходы НЛП
Python и набор инструментов для работы с естественными языками (NLTK)
Язык программирования Python предоставляет широкий спектр инструментов и библиотек для решения конкретных задач НЛП. Многие из них можно найти в Natural Language Toolkit, или NLTK, коллекции библиотек, программ и образовательных ресурсов с открытым исходным кодом для создания программ НЛП.
NLTK включает библиотеки для многих из перечисленных выше задач НЛП, а также библиотеки для подзадач, таких как синтаксический анализ предложений, сегментация слов, формирование корней и лемматизация (методы обрезки слов до их корней) и токенизация (для разбиения фраз, предложения, абзацы и отрывки в токены, помогающие компьютеру лучше понять текст).Он также включает библиотеки для реализации таких возможностей, как семантическое мышление, возможность делать логические выводы на основе фактов, извлеченных из текста.
Статистическое НЛП, машинное обучение и глубокое обучение
Самые ранние приложения НЛП представляли собой написанные вручную системы, основанные на правилах, которые могли выполнять определенные задачи НЛП, но не могли легко масштабироваться, чтобы справиться с кажущимся бесконечным потоком исключений или растущими объемами текстовых и голосовых данных.
Войдите в статистический NLP, который сочетает компьютерные алгоритмы с машинным обучением и моделями глубокого обучения для автоматического извлечения, классификации и маркировки элементов текстовых и голосовых данных, а затем присваивает статистическую вероятность каждому возможному значению этих элементов. Сегодня модели глубокого обучения и методы обучения, основанные на сверточных нейронных сетях (CNN) и рекуррентных нейронных сетях (RNN), позволяют системам НЛП «обучаться» в процессе работы и извлекать все более точный смысл из огромных объемов необработанного, неструктурированного и неразмеченного текста. и наборы голосовых данных.
Для более глубокого изучения нюансов между этими технологиями и их подходами к обучению см. раздел «Искусственный интеллект, машинное обучение, глубокое обучение и нейронные сети: в чем разница?»
Случаи использования НЛП
Обработка естественного языка является движущей силой искусственного интеллекта во многих современных реальных приложениях. Вот несколько примеров:
- Обнаружение спама. Возможно, вы не считаете обнаружение спама решением NLP, но лучшие технологии обнаружения спама используют возможности классификации текста NLP для сканирования электронных писем на наличие языка, который часто указывает на спам или фишинг. Эти индикаторы могут включать чрезмерное использование финансовых терминов, характерную плохую грамматику, угрожающий язык, неуместную срочность, неправильно написанные названия компаний и многое другое. Обнаружение спама — одна из немногих проблем NLP, которые эксперты считают «почти решенными» (хотя вы можете возразить, что это не соответствует вашему опыту работы с электронной почтой).
- Машинный перевод. Google Translate — это пример общедоступной технологии НЛП в действии. По-настоящему полезный машинный перевод включает в себя нечто большее, чем замену слов одного языка словами другого. Эффективный перевод должен точно отражать смысл и тон исходного языка и переводить их в текст с тем же значением и желаемым воздействием на выходной язык. Инструменты машинного перевода делают успехи в плане точности. Отличный способ протестировать любой инструмент машинного перевода — перевести текст на один язык, а затем вернуться к оригиналу. Часто цитируемый классический пример: не так давно при переводе «Дух хочет, но плоть слаба» с английского на русский и обратно давался «Водка хорошая, а мясо гнилое». ». Сегодня результатом является «Дух желает, но плоть немощна», что не идеально, но в переводе с английского на русский внушает гораздо больше доверия.
- Виртуальные агенты и чат-боты. Виртуальные агенты, такие как Siri от Apple и Alexa от Amazon, используют распознавание речи для распознавания шаблонов в голосовых командах и генерации естественного языка, чтобы реагировать соответствующим действием или полезными комментариями. Чат-боты выполняют ту же магию в ответ на введенный текст. Лучшие из них также учатся распознавать контекстуальные подсказки о человеческих запросах и использовать их для предоставления еще лучших ответов или вариантов с течением времени. Следующим улучшением для этих приложений является функция ответов на вопросы, возможность отвечать на наши вопросы — ожидаемые или нет — соответствующими и полезными ответами своими словами.
- Анализ настроений в социальных сетях. НЛП стало важным бизнес-инструментом для выявления скрытых данных из каналов социальных сетей. Анализ настроений может анализировать язык, используемый в сообщениях, ответах, обзорах и т. д. в социальных сетях, чтобы определять отношение и эмоции, связанные с продуктами, рекламными акциями и событиями. Эту информацию компании могут использовать при разработке продуктов, рекламных кампаниях и т. д.
- Обобщение текста. Обобщение текста использует методы НЛП для анализа огромных объемов цифрового текста и создания резюме и синопсисов для указателей, исследовательских баз данных или занятых читателей, у которых нет времени читать полный текст. Лучшие приложения для реферирования текста используют семантические рассуждения и генерацию естественного языка (NLG), чтобы добавить полезный контекст и выводы к рефератам.
Обработка естественного языка и IBM Watson
-
IBM внедрила инновации в области искусственного интеллекта, разработав новаторские инструменты и услуги на основе NLP, которые позволяют организациям автоматизировать свои сложные бизнес-процессы, получая при этом важную бизнес-информацию. Эти инструменты включают:
- Языковые приложения, как в приложениях для перевода, таких как Google Translate.
- Проверки орфографии, известные из MS Word или приложения Grammarly, которые используют НЛП для поиска грамматических ошибок в письменных текстах.
- Интерактивное распознавание голоса, которое часто используется в колл-центрах, позволяя звонящим делать выбор.
- Голосовые помощники, такие как Alexa, Siri или Google Assistant, которые обеспечивают множество различных функций на смартфонах и дома.
- Автоматические чат-боты, которые используются в дополнение к агентам по обслуживанию клиентов или заменяют их.
- Человек разговаривает с машиной
- Машина записывает звуковой сигнал
- Аудиосигнал преобразуется в текст
- Текст декодируется синтаксически и семантически для анализа
- Оценка ответов и возможных действий
- Обработка данных в виде звуковых или текстовых сигналов.
- Общение между машиной и человеком с помощью языковых и текстовых выходных данных
- Что такое проводник SolidWorks
- Выберите правильное имя файла ответов пример документа нет правильного ответа пример документа пример 1 документ
- Ооо астрал м электронная подпись что это такое
- Последняя версия Mozilla Firefox что
- К компьютеру применяется политика kaspersky security center как отключить
-
- Находите высококачественные ответы и богатые идеи из ваших сложных корпоративных документов — таблиц, PDF-файлов, больших данных и многого другого — с помощью поиска ИИ.Позвольте своим сотрудникам принимать более обоснованные решения и экономить время с помощью поисковой системы в реальном времени и возможностей анализа текста, которые выполняют извлечение текста и анализируют отношения и шаблоны, скрытые в неструктурированных данных. Watson Discovery использует настраиваемые модели NLP и методы машинного обучения, чтобы предоставить пользователям ИИ, который понимает уникальный язык их отрасли и бизнеса. Explore Watson Discovery (NLU) — анализируйте текст в форматах неструктурированных данных, включая HTML, веб-страницы, социальные сети и т. д. Улучшите свое понимание человеческого языка, используя этот набор инструментов естественного языка для определения понятий, ключевых слов, категорий, семантики и эмоций, а также для выполнения классификации текста, извлечения сущностей, распознавания именованных сущностей (NER), анализа настроений и суммирования. Изучите Watson Natural Language Understanding — улучшите качество обслуживания клиентов при одновременном снижении затрат. Watson Assistant — это чат-бот на основе искусственного интеллекта с простым в использовании визуальным конструктором, который позволяет развертывать виртуальных агентов по любому каналу за считанные минуты. Узнайте больше о Watson Assistant
Разработанный специально для медицинских и медико-биологических областей, IBM Watson Annotator for Clinical Data извлекает ключевые клинические понятия из текстов на естественном языке, таких как состояния, лекарства, аллергии и процедуры. Глубокие контекстуальные идеи и значения для ключевых клинических атрибутов позволяют получить более значимые данные. Потенциальные источники данных включают в себя клинические записи, выписки из больницы, протоколы клинических испытаний и литературные данные.
Обработке естественного языка на компьютерах посвящена целая область исследований. Эта область, называемая обработкой естественного языка (NLP), исследует взаимодействие между человеческим языком и компьютерами. По сути, это метод, с помощью которого компьютеры начинают анализировать и понимать человеческий язык. Еще более впечатляющей является способность компьютеров понимать фактические значения человеческого языка способами, которые могут быть истолкованы как не только полезные, но и разумные.
Форма искусственного интеллекта (ИИ)
Разработчики, использующие НЛП, могут начать структурировать и систематизировать знания, чтобы компьютеры могли выполнять широкий спектр задач. Это включает в себя перевод, распознавание имен, распознавание скорости, сегментацию тем, анализ тональности слов и извлечение отношений. Вместо того, чтобы просто рассматривать отдельные буквы как символы, благодаря способности обрабатывать естественный язык компьютеры могут брать слова и даже фразы и на самом деле извлекать из них смысл. Они могут составлять предложения из фраз, а затем использовать эти предложения для создания и передачи идей.
Сегодня разработчики используют технологию, основанную на алгоритмах машинного обучения, для целого ряда задач. Некоторые из различных задач, которые можно выполнить, уже включают в себя возможность суммировать блоки текста, создавать чат-ботов, генерировать теги ключевых слов, определять тип объекта, который был извлечен из текста, и многое другое.
Бизнес начинает использовать ИИ и НЛП
Некоторые компании начали использовать этот тип технологий в своем бизнесе. Они создали инструменты мониторинга социальных сетей, которые могут помочь им зафиксировать все упоминания их торговой марки на таких сайтах, как Twitter. Затем они могут использовать алгоритм анализа настроений, который может дать им лучшее представление о том, что люди думают об их бренде. Если они заметят проблемы с общим отношением к их компании на основе данных, полученных с помощью этих инструментов, они смогут принять меры и исправить ситуацию.
В ближайшие годы вполне вероятно, что мощность и возможности компьютеров, обрабатывающих естественный язык, будут расти. Будет очень интересно посмотреть, какими будут новые улучшения и как они будут работать.
Может ли ваша компания использовать искусственный интеллект и обработку естественного языка? Свяжитесь с WCA Technologies через Интернет или позвоните по телефону 212-642-0980.
Компьютер или алгоритм обучаются на основе собственного опыта при выполнении конкретных задач. С добавлением повторений и/или новых данных, новые улучшения, решения и действенные пути обнаруживаются самой машиной. Применение этих инновационных материалов создает важную основу для искусственного интеллекта (ИИ).
Одна из самых интересных областей машинного обучения связана с общением. Точнее, как компьютерные системы и люди могут взаимодействовать и общаться друг с другом с помощью естественного языка.
Основной процесс называется обработкой естественного языка (NLP) и направлен на решение задачи обучения компьютеров тому, как понимать и использовать человеческий язык.
Примеры использования обработки естественного языка (NLP)
Голосовые и текстовые команды встроены во множество различных приложений.Некоторые из самых передовых и известных из них можно найти в:
Как работает обработка естественного языка?
Случаи использования обработки естественного языка многочисленны. Но как на самом деле работает обработка естественного языка?
НЛП обычно можно разделить на три основных аспекта:
Распознавание голоса: преобразование произнесенных слов в машиночитаемый текст
Понимание естественного языка: способность компьютера понимать, что говорит человек
Формулирование естественного языка: индивидуальное создание естественного языка компьютерной системой
Благодаря сочетанию синтаксических и семантических методов анализа текста компьютеры могут получить доступ к более глубокому пониманию произносимых слов. Синтаксический описывает грамматическую структуру предложения, а семантический смысл, передаваемый им.
С помощью синтаксического анализа естественный язык анализируется на предмет его достоверности в отношении формальных грамматических правил. Слова учитываются не по отдельности, а в группах и в том, как они соотносятся друг с другом.
Семантический анализ связан с пониманием, расшифровкой значения и интерпретацией слов и структур предложений. Вот как компьютер может обрабатывать естественный язык.
Следует отметить, что это по-прежнему один из самых сложных аспектов машинного обучения, поскольку даже нам, людям, понадобились тысячи лет, чтобы развить наши дифференцированные лингвистические системы.
Типичное взаимодействие между системой НЛП и человеком:
Ограничения развития обработки естественного языка
Как люди, мы используем язык без задней мысли, потому что мы программируем наш собственный языковой компьютер в нашем мозгу с самого раннего возраста. Этот процесс довольно сложен, поскольку он работает с огромным количеством различных знаков, символов и значений.
Наши языковые центры постоянно задействованы, даже когда у нас есть одна мысль, а наше акустическое понимание является высокоразвитым мультисенсорным усилием.
Поэтому простое понимание человеческого языка – довольно трудный процесс. Слова могут комбинироваться бесконечным количеством способов и иметь различное значение в зависимости от контекста, в котором они используются. Во многих случаях информация, доставляемая через контекст, обусловлена культурой, добавляя еще один уровень значения, который должен быть расшифрован машиной. /p>
Язык очень гибок и широк в своем возможном значении, и компьютерам еще предстоит научиться обрабатывать все различные информационные слои. В конечном итоге компьютеры должны будут научиться понимать всю информацию, доступную в Интернете, чтобы создать действительно независимый искусственный интеллект.
Глубокое обучение как основа обработки естественного языка
Разработка распознавания голоса во многом зависит от глубокого обучения. Сочетание процесса глубокого обучения и НЛП позволяет машинам глубже понимать языковые данные, что дает больше ясности в отношении слов и их реляционного значения.
Благодаря Deep Learning язык постоянно анализируется и собирается новая информация о языковых структурах. На основе этих входных данных можно построить сложные неврологические сети, что позволит в будущем автоматизировать искусственный интеллект.
Мы еще не совсем достигли этого этапа, но даже сегодняшние ИИ-решения способны самостоятельно совершенствоваться, анализируя данные. Процессы упрощаются и совершенствуются, нередко с использованием инновационных подходов.
Onlim — ваш специалист по разработке и интеграции интеллектуальных решений для вашего бизнеса, и мы будем рады поддержать вас в области голосовых помощников и чат-ботов. Нажмите здесь, чтобы узнать больше и воспользоваться нашими решениями.
Исследователи из Ливерпульского университета разработали набор алгоритмов, которые помогут научить компьютеры обрабатывать и понимать человеческий язык.
Хотя людям легко освоить естественный язык, компьютерам это пока не под силу. Люди понимают язык разными способами, например, просматривая его в словаре или осмысленно связывая его со словами в одном предложении.
Алгоритмы позволят компьютеру действовать почти так же, как человек, когда сталкивается с неизвестным словом. Когда компьютер сталкивается со словом, которое он не распознает или не понимает, алгоритмы означают, что он будет искать это слово в словаре (например, в WordNet) и пытается угадать, какие другие слова должны появиться в тексте вместе с этим неизвестным словом.
Он дает компьютеру семантическое представление слова, которое согласуется как со словарем, так и с контекстом, в котором оно появляется в тексте.
Чтобы узнать, предоставил ли алгоритм компьютеру точное представление слова, он сравнивает оценки сходства, полученные с использованием представлений слов, изученных компьютерным алгоритмом, с человеческими оценками сходства.
Компьютерщик из Ливерпуля, доктор Данушка Боллегала, сказала: "Изучение точного представления слов – это первый шаг к обучению компьютеров языкам".
"Если мы сможем представить значение слова так, как это может понять компьютер, тогда компьютер сможет читать тексты от имени людей и выполнять потенциально полезные задачи, такие как перевод текста, написанного на иностранном языке, резюмируя длинную статью, или найдите аналогичные другие документы в Интернете.
"Мы с нетерпением ждем возможности увидеть огромные возможности, которые откроются, когда такие точные семантические представления будут использоваться компьютерами в различных задачах обработки языка."
Исследование было представлено на конференции Ассоциации развития искусственного интеллекта (AAAI-2016), проходившей в Аризоне, США.
В предыдущем посте я обсуждал цель понимания нашего мира через зеркальный мир социальных сетей. Социальные сети являются отражением нашей культуры, потому что многие обсуждения, которые раньше происходили с глазу на глаз или по телефону, теперь происходят на таких сайтах, как Twitter и Facebook. Эти оцифрованные разговоры могут быть прочитаны компьютерами, но могут ли компьютеры действительно понять, что они читают? Ответ такой, вроде. Компьютеры понимают человеческий язык так же, как мы понимаем иностранный язык или разговор, происходящий в соседней комнате. Вы можете представить себе друга, который слушает такой разговор и сообщает в ответ: «Я точно не знаю, о чем они говорили, но это было что-то о Walmart и расширенной гарантии». Примерно на этом уровне компьютеры понимают речь, и в этой статье объясняется, как это делается и почему это полезно.
Чтобы сфокусировать обсуждение, мы будем использовать этот твит в качестве примера.
ПОНИМАНИЕ ЯЗЫКА ЧЕРЕЗ ФРЕЙМЫ И РОЛИ
Компьютеры могут начать понимать наш язык с помощью фреймов. Фрейм представляет понятие и связанные с ним роли. Классический пример обрамления – детский день рождения. Вечеринки по случаю дня рождения проходят по сценарию, в котором происходит передача богатства (в виде подарков) от родителей участников имениннице или мальчику. В кадре вечеринки по случаю дня рождения есть роли для различных частей, таких как место проведения, развлечение и источник сахара. Однажды вы можете привести своего ребенка на вечеринку в дом, где есть клоун и кексы. На следующей неделе вы можете оказаться в Chuck E. Cheese в окружении видеоигр и тортов. Компьютер может многое понять, просто распознав фрейм и сопоставив части предложения с ролями.
Семь кадров — это больше, чем мы ожидали. Наш мозг настолько эффективен и хорошо обучен, что нам не нужно сознательно думать о большей части того, что мы читаем. Такие фреймы, как Temporal_collocation и Quantity, не имеют решающего значения, но, взглянув на Commerce_buy и Resolve_problem, компьютер может «понять», что что-то было куплено и что проблема решена. Мы видим скриншот фрейма FrameNet Commerce_buy ниже.
ДОПОЛНЕНИЕ К ПОНИМАНИЮ С НАЗВАННЫМИ СУБЪЕКТАМИ
Компьютерное понимание может быть дополнено распознаванием именованных объектов. Вместо того, чтобы искать более крупные фрагменты смысла, представленные фреймами, распознавание именованных сущностей направлено на идентификацию известных сущностей в нашей культуре, таких как Джордж Вашингтон.Распознавание именованных объектов начинается с внешнего источника данных, в котором перечислены все известные вещи, такие как машиночитаемая версия Википедии. Затем компьютерная программа читает наши твиты в поисках экземпляров этих известных сущностей. В твите, который мы анализировали, компьютерная программа [2] идентифицировала Walmart как компанию в твите.
Применяя распознавание кадров и распознавание именованных объектов, компьютер не полностью понял наш твит, но определил, что возникла проблема с чем-то, купленным в Walmart, и что она была решена. Хотя компьютеры достигают лишь поверхностного понимания при чтении, они могут читать много, и это позволяет им распознавать тенденции. Например, компьютер может читать Twitter и измерять количество решенных проблем в каждой компании, чтобы понять, какие компании обеспечивают отличное обслуживание клиентов. Или конкретная компания, например Walmart, может попробовать новое гарантийное обслуживание и автоматически узнать, работает ли оно лучше или хуже, чем предыдущее.
Преодоление двусмысленности с помощью машинного обучения
Распознавание фреймов и именованных объектов требует большего, чем поиск ключевых слов в тексте, поскольку значение слов часто определяется их контекстом. Все мы знаем, что время летит как стрела, а фрукт летит как банан. Компьютеры преодолевают двусмысленность, изучая статистику окружающего текста. Машинное обучение в этой форме увеличивает возможности компьютерного понимания.
Напоминаем, что фрейм Commerce_buy был идентифицирован, несмотря на то, что в твите не было слова «купить». Частично это достигается путем определения корней слов (сопоставление «купил» с корнем «купить») и частично путем ручного ввода других триггерных слов, таких как «покупка», но этот процесс дополняется изучением шаблонов из размеченных данных. Машинное обучение также необходимо для распознавания именованных объектов. Рассмотрим твит, в котором упоминается «Вашингтон». Компьютеры используют контекст, чтобы определить, является ли предполагаемое значение человеком, государством или столицей. Если в твите появляется слово «Сиэтл», слово «Вашингтон», скорее всего, относится к штату.
Если бы эти системы были унифицированы, компьютеры по-прежнему могли бы не понимать человеческий язык так, как мы, потому что у них была бы просто сеть символов. Напротив, мы понимаем значение терминов через физическое взаимодействие. Мы знаем, что означает «тяжелый», не сопоставляя его с другими символами, а сопоставляя его с набором запомненных переживаний, закодированных, когда для перемещения объектов требовалось физическое усилие. Вопрос о том, нужен ли компьютеру физический опыт для полного понимания языка, остается открытым.
Помимо потенциальной проблемы, связанной с необходимостью физического опыта для полного понимания, представленные здесь символические представления могут быть слишком хрупкими, чтобы уловить тонкости человеческого языка. В своем следующем посте на эту тему я расскажу о компьютерном понимании человеческого языка с использованием относительно нового вычислительного метода под названием Deep Learning. Глубокое обучение представляет концепции с использованием векторов вместо атомарных символов. Эти векторы представляют сразу несколько значений и могут комбинироваться полезным образом, чтобы можно было рассуждать по аналогии. Глубокое обучение быстро расширяет возможности компьютеров, так что следите за обновлениями. Время летит как стрела.
О ДЖОНАТАНЕ
Джонатан — главный научный сотрудник DeUMBRA, где он исследует, как можно использовать машинное обучение и искусственный интеллект, чтобы сделать компьютеры интеллектуальными за счет доступа к контексту и знаниям. Он получил степень бакалавра гуманитарных наук. Он получил степень доктора психологии и степень магистра делового администрирования Техасского университета A&M, а также докторскую степень. в области компьютерных наук Техасского университета в Остине. Джонатан также является автором книги для родителей и учителей под названием «Цикл любопытства: подготовка вашего ребенка к продолжающемуся технологическому взрыву».
Читайте также: