Основная микросхема компьютера, в которой выполняются все вычисления
Обновлено: 21.11.2024
В работе разработана неэмпирическая модель, позволяющая рассчитывать эффективные заряды собственных и примесных ионов в границах зерен поликристаллических металлов. Эти величины сильно влияют на надежность работы микросхемы. Основным фактором, приводящим к различию значений эффективных зарядов ионов в границе зерна и в монокристалле одного и того же металла, является различие их атомных плотностей. Эффективные заряды ионов Al и Cu на границе зерна Al рассчитываются как функция угла разориентации границы зерна, текстуры границы зерна и температуры.
Откройте для себя мировые исследования
- 20 миллионов участников
- 135 миллионов публикаций
- Более 700 тыс. исследовательских проектов
Полный текст недоступен
Чтобы ознакомиться с полным текстом этого исследования,
вы можете запросить копию непосредственно у авторов.
Рассматриваются физические принципы вырождения и отказа межсоединений на кристалле в технологиях размером менее 1 мкм с точки зрения надежности многоуровневой металлизации. Представлены общая теория и результаты моделирования, касающиеся разрушения тонкопленочных проводящих дорожек, вызванного электромиграцией, в микро- и нанометровом масштабе. Они обеспечивают детальное рассмотрение микро-, мезо- и наноскопических механизмов, лежащих в основе деформации и разрушения реальных конфигураций взаимосвязей. Части 1 и 2 содержат (i) вывод и анализ основных кинетических уравнений; 2) постановка и решение трехмерных краевых задач, описывающих перенос вакансий (как в объеме, так и по границам зерен) и развитие деформаций и напряжений; (iii) модели зарождения и развития пустот; (iv) анализ срока службы многоуровневой металлизации; и (v) идентификацию потенциальных мест разрыва в многоуровневой металлизации в зависимости от плотности тока, структуры и расположения металлизации, температуры и зернистой структуры проводящего материала. Часть 3 посвящена электромиграции в легированных поликристаллических соединениях на кристалле с точки зрения увеличения их срока службы. Для прогнозирования сопротивления электромиграции строятся модели, отражающие влияние текстуры и других свойств границ зерен на эффективные заряды собственных ионов и ионов легирующей примеси.
Деградация и объемный отказ поликристаллической линии межсоединений, вызванные электромиграцией вакансий по границам зерен и зарождением кластеров вакансий в тройных точках объемного проводника, исследуются в рамках общей теории деградации и разрушения тонкопленочных материалов, вызванных электромиграцией. встроенные межблочные линии, представленные в части 1 [1]. Общие уравнения адаптированы для учета электромиграции вакансий, генерации механических напряжений и зарождения пустот в тройных точках. Формулируются соответствующие краевые задачи, разрабатываются и программно реализуются численные методы и процедуры их решения. Компьютерное моделирование выполняется для выявления закономерностей нарушения электромиграции в тройных точках. На этой основе исследуется (1) срок службы межсоединений в широких пределах изменения материальных, конструктивных, геометрических и эксплуатационных параметров и (2) зависимость плотности тока и температуры — механического напряжения, концентрации вакансий и уровня рассмотрено и объяснено пересыщение вакансий в тройной точке, радиус пустоты и время до зарождения. Результаты моделирования хорошо согласуются с предыдущими экспериментами. Это исследование можно рассматривать как естественное продолжение нашего исследования электромиграционных отказов, возникающих в системах с многоуровневой металлизацией в результате отказа межсоединений вблизи сквозных переходов или на открытых концах [1]. Вместе они охватывают большинство механизмов нарушения электромиграции, от которых страдают системы металлизации.
Рекомендуемые публикации
Плотность ионов в электронных пучкахII. Адекватность лечения на основе средних значений
Заряд, захваченный электронными или ионными пучками при давлениях ниже пробоя, может быть определен из интегро-дифференциального уравнения, которое изучалось в статье I. Новые случаи рассматриваются и количественно сравниваются друг с другом, чтобы показать, в какой степени эффективный потенциал зависит от формы up (образование ионов) и ue (луч). Получается, что обработка со средними значениями up и ue. [Показать полный текст] — достаточно надежное приближение, за исключением довольно необычного случая, когда вверху показан глубокий минимум.
Электромиграция
Требования к току питания интегральных схем быстро растут, как обсуждалось в главе 1.Плотность тока во встроенных линиях питания и заземления может достигать нескольких сотен тысяч ампер на квадратный сантиметр. При таких плотностях тока электромиграция становится значительной. Электромиграция — это перенос атомов металла под действием потока электронов. Истощение и. [Показать полный реферат] Накопление металлического материала в результате атомного потока может привести к образованию выдавливаний (или бугров) и пустот в металлических конструкциях. Значение электромиграции было установлено на ранних этапах разработки интегральных схем [73], [74]. Электромиграцию следует учитывать в процессе проектирования интегральной схемы, чтобы обеспечить надежную работу в течение целевого срока службы. Надежность электромиграции и связанные с этим последствия для проектирования являются предметом этой главы. Более подробное обсуждение темы электромиграции можно найти в литературе [75], [76].
Определение атомного заряда натрия в натриевых солях методом численного интегрирования — теоретическая часть.
Разница электронной плотности в кристалле NaSCN устанавливается на основе первоначальных плотностей ионов Na+ и SCN- и сравнивается с экспериментальным аналогом на основе измерений рентгеновской дифракции. Численное интегрирование по разности электронной плотности выполняется вокруг иона Na+. Полученный таким образом атомный заряд (+0,20e) хорошо согласуется с аналогичным экспериментальным зарядом. [Показать полную аннотацию] (+0,27e) Таким образом, низкое экспериментальное значение не может рассматриваться как указание на преимущественно неионную структуру NaSCN и подобных солей натрия
Рассчитайте одно – математическое ожидание электронного заряда атомной системы, состоящей из двух электронов
Целью данной работы является вычисление одноэлектронного среднего значения электронного заряда атомной системы Z=2,3….7 и сравнение с атомом Не. оценивается функция электронной плотности D(r1) атома He и подобных ионов. с использованием волны Хартри-Фока.
Материалы ионно-литиевых электродов и свойства атомных орбиталей
Обсуждаются свойства подходящих материалов для электродов литий-ионных аккумуляторных батарей. Ключом к пониманию процесса внедрения является локализация распределения ионного и электронного заряда в решетке. Подходящая последовательность материалов шпинели была выбрана и исследована экспериментально с использованием различных методов. Полученные наблюдения обсуждаются в . [Показать полную аннотацию] термины атомной модели, основанные на сравнении с известными спектрами и на ab initio расчетах Хартри-Фока.
Лазерно-стимулированная рекомбинационная спектроскопия для изучения дальнодействующих взаимодействий в высокозарядных устройствах.
Энергетические сдвиги ридберговских состояний с большим угловым моментом в бериллиеподобном O4+ из-за дальнодействующих взаимодействий ридберговского электрона с ионным остовом измерены с помощью лазерной спектроскопии с использованием стимулированной двухступенчатой рекомбинации свободных электронов с O5+. ионы. Сравнение точных экспериментальных результатов с теоретическими сдвигами из модели основной поляризации и из ab initio atomic. [Показать полную аннотацию] Структурные расчеты демонстрируют значительные разногласия, демонстрируя необходимость эффективного метода включения взаимодействия конфигурации в модель взаимодействия на большом расстоянии.
Эмиссия быстрых электронов при столкновениях ионов с металлическими кластерами
Мы представляем модель для описания динамической эволюции делокализованных электронов в простом металлическом кластере во время и после прохождения заряженной частицы при промежуточных энергиях. Принимая приближение среднего поля, мы решаем уравнение Власова, комбинируя метод пробных частиц и численное решение уравнения Пуассона на каждом временном шаге. Этот метод позволяет использовать файл . [Показать полный текст аннотации] большое количество тестовых частиц и получить надежное поведение плотности фазового пространства одного тела в течение более 20 фс. Прогнозируются скорость и особенности эмиссии быстрых электронов.
Ошибка: Теория линейного отклика в формализме функционала плотности: приложение к атомным полярам.
Линейный отклик произвольной электронной системы рассматривается в рамках теории функционала плотности. Выведено интегральное уравнение, определяющее плотность, индуцированную внешним возмущением.Входящая в это уравнение функция отклика независимых частиц для неоднородной системы получена в удобном для численных расчетов виде. Применяется уравнение. [Показать полный текст аннотации] к расчету дипольных поляризуемостей сферически-симметричных атомов и ионов. Результаты для атомов инертных газов, полученные с помощью приближения локальной плотности, хорошо согласуются с экспериментальными значениями, за исключением случая Не. Поляризуемость также оценивается для ионов щелочных металлов, щелочноземельных и других металлических атомов с замкнутой оболочкой.
Ab Initio анализ пентадиениллития, пентадиенилнатрия и пентадиенил-ионов
Ab initio расчеты использовались для определения равновесной геометрии и барьеров вращения пентадиенильного катиона, аниона и металлированных пентадиенов. Пентадиениллитий и пентадиенилнатрия наиболее стабильны в U-образной структуре. Эта геометрия представляет собой локальный минимум более высокой энергии для пентадиенильного аниона и не является стационарной точкой для пентадиенильного катиона. Атомные и групповые заряды. [Показать полный текст] были проанализированы с помощью анализа естественной популяции и были определены для каждой из изученных конформаций.
Исследования одно- и двухзарядных сольватированных ионов металлов.
Теоретические методы, выходящие за пределы приближения первого порядка
В предыдущей главе релятивистские столкновения между ионом и атомом, оба из которых несут электрон(ы), рассматривались в рамках теории первого порядка, в которой взаимодействие между ионом и атомом ограничивается только обменом одним фотоном. Последнее означает, что для надежности результатов первого порядка ионно-атомное взаимодействие должно быть достаточно слабым. Действительно, поле, создаваемое . [Показать полностью аннотацию] сильно заряженный ион при столкновении с электронами атома может быть достаточно сильным в атомном масштабе. Последнее может привести к значительным отклонениям поведения атомных электронов от предсказаний теории первого порядка. Другое поведение атомных электронов означает, что атомное поле, действующее на ион, также будет отличаться от предсказываемого теорией первого порядка. В результате, поскольку атом и ион сильно связаны при столкновении, электрон иона, вообще говоря, также будет по-иному воздействовать по сравнению со случаем, когда процесс столкновения протекает в соответствии с предсказаниями первого порядка. В следующем разделе мы рассмотрим различные аспекты столкновений между сильно заряженными снарядами и легкими атомами, используя эйконалоподобную модель, которая будет обсуждаться очень подробно. Преимущество этой модели по сравнению с приближением первого порядка основано на учете искажения атомного перехода четырехтока полем снаряда.
Несмотря на то, что были приложены все усилия для соблюдения правил стиля цитирования, могут быть некоторые расхождения. Если у вас есть какие-либо вопросы, обратитесь к соответствующему руководству по стилю или другим источникам.
Наши редакторы рассмотрят то, что вы отправили, и решат, нужно ли пересматривать статью.
суперкомпьютер, любой из класса чрезвычайно мощных компьютеров. Этот термин обычно применяется к самым быстрым высокопроизводительным системам, доступным в любой момент времени. Такие ЭВМ использовались в основном для научных и инженерных работ, требующих чрезвычайно высокой скорости вычислений. Общие приложения для суперкомпьютеров включают тестирование математических моделей для сложных физических явлений или конструкций, таких как климат и погода, эволюция космоса, ядерное оружие и реакторы, новые химические соединения (особенно для фармацевтических целей) и криптология. По мере снижения стоимости суперкомпьютеров в 1990-х годах все больше компаний стали использовать суперкомпьютеры для маркетинговых исследований и других бизнес-моделей.
Отличительные черты
Суперкомпьютеры имеют определенные отличительные особенности. В отличие от обычных компьютеров, они обычно имеют более одного ЦП (центрального процессора), который содержит схемы для интерпретации программных инструкций и выполнения арифметических и логических операций в правильной последовательности. Использование нескольких процессоров для достижения высокой скорости вычислений обусловлено физическими ограничениями схемотехники. Электронные сигналы не могут двигаться быстрее скорости света, что, таким образом, является фундаментальным ограничением скорости для передачи сигналов и коммутации цепей. Этот предел почти достигнут благодаря миниатюризации компонентов схем, значительному сокращению длины проводов, соединяющих печатные платы, и инновациям в методах охлаждения (например, в различных суперкомпьютерных системах схемы процессора и памяти погружаются в криогенную жидкость для достижения низкие температуры, при которых они работают быстрее всего).Для поддержки чрезвычайно высокой вычислительной скорости ЦП требуется быстрое извлечение сохраненных данных и инструкций. Поэтому большинство суперкомпьютеров имеют очень большую емкость памяти, а также очень быстрые возможности ввода-вывода.
Компьютеры размещают веб-сайты, состоящие из HTML, и отправляют текстовые сообщения так же просто, как. РЖУ НЕ МОГУ. Взломайте этот тест, и пусть какая-нибудь технология подсчитает ваш результат и раскроет вам его содержание.
Еще одной отличительной чертой суперкомпьютеров является использование ими векторной арифметики, то есть они могут работать с парами списков чисел, а не просто с парами чисел. Например, типичный суперкомпьютер может умножить список почасовых ставок заработной платы для группы фабричных рабочих на список часов, отработанных членами этой группы, чтобы получить список долларов, заработанных каждым рабочим примерно за то же время, что и обычный компьютер для подсчета суммы, заработанной одним работником.
Суперкомпьютеры изначально использовались в приложениях, связанных с национальной безопасностью, включая разработку ядерного оружия и криптографию. Сегодня они также обычно используются в аэрокосмической, нефтяной и автомобильной промышленности. Кроме того, суперкомпьютеры нашли широкое применение в областях, связанных с инженерными или научными исследованиями, как, например, при изучении строения субатомных частиц, происхождения и природы Вселенной. Суперкомпьютеры стали незаменимым инструментом в прогнозировании погоды: предсказания теперь основаны на численных моделях. По мере снижения стоимости суперкомпьютеров их использование распространилось на мир онлайн-игр. В частности, китайские суперкомпьютеры с 5-го по 10-е место в 2007 г. принадлежали компании, владеющей онлайн-правами в Китае на электронную игру World of Warcraft, в которую иногда одновременно играло более миллиона человек. игровой мир.
Историческое развитие
Несмотря на то, что первые суперкомпьютеры создавались разными компаниями, один человек, Сеймур Крей, практически с самого начала определял продукт. Крей присоединился к компьютерной компании под названием Engineering Research Associates (ERA) в 1951 году. Когда ERA была поглощена Remington Rand, Inc. (которая позже объединилась с другими компаниями, чтобы стать Unisys Corporation), Крей ушел вместе с основателем ERA Уильямом Норрисом, чтобы начать Control Data Corporation (CDC) в 1957 году. К тому времени линейка компьютеров Remington Rand UNIVAC и IBM поделили большую часть рынка компьютеров для бизнеса, и вместо того, чтобы бросить вызов их обширным структурам продаж и поддержки, CDC стремилась захватить небольшой, но прибыльный рынок быстрых научных компьютеров. CDC 1604, разработанный Cray, был одним из первых компьютеров, в которых электронные лампы были заменены транзисторами, и был весьма популярен в научных лабораториях. IBM отреагировала созданием собственного научного компьютера IBM 7030, широко известного как Stretch, в 1961 году. временно ушел из области суперкомпьютеров после ошеломляющих для того времени убытков в размере 20 миллионов долларов. В 1964 году Cray CDC 6600 заменил Stretch как самый быстрый компьютер на Земле; он мог выполнять три миллиона операций с плавающей запятой в секунду (FLOPS), и вскоре для его описания был придуман термин суперкомпьютер.
Крей покинул CDC, чтобы основать Cray Research, Inc., в 1972 году, а в 1989 году снова перешел к созданию Cray Computer Corporation. Каждый раз, когда он уходил, его бывшая компания продолжала производить суперкомпьютеры на основе его разработок.
Крей принимал активное участие во всех аспектах создания компьютеров, которые производили его компании. В частности, он был гением в плотной упаковке электронных компонентов, из которых состоит компьютер. Благодаря умному замыслу он сократил расстояние, которое должны были пройти сигналы, тем самым ускорив работу машин. Он всегда стремился создать максимально быстрый компьютер для научного рынка, всегда программировался на выбранном научном языке программирования (FORTRAN) и всегда оптимизировал машины для сложных научных приложений, например, дифференциальных уравнений, матричных манипуляций, гидродинамики, сейсмического анализа. и линейное программирование.
Среди новаторских достижений Cray был Cray-1, представленный в 1976 году, который стал первой успешной реализацией векторной обработки (это означает, что, как обсуждалось выше, он мог работать с парами списков чисел, а не просто с парами чисел). . Крей также был одним из пионеров разделения сложных вычислений между несколькими процессорами, схема, известная как «многопроцессорность».«Одной из первых машин, использующих многопроцессорность, была Cray X-MP, представленная в 1982 году, которая соединяла два компьютера Cray-1 параллельно, чтобы утроить их индивидуальную производительность. В 1985 году Cray-2, четырехпроцессорный компьютер, стал первой машиной, которая превысила миллиард FLOPS.
Хотя для достижения своих рекордов скорости Крэй использовал дорогие современные специализированные процессоры и системы жидкостного иммерсионного охлаждения, вот-вот должен был появиться новый революционный подход. У. Дэниела Хиллиса, аспиранта Массачусетского технологического института, возникла замечательная новая идея о том, как преодолеть узкое место, связанное с тем, что центральный процессор управляет вычислениями между всеми процессорами. Хиллис понял, что может устранить узкое место, отказавшись от всеконтролирующего ЦП в пользу децентрализованного или распределенного управления. В 1983 году Хиллис стал соучредителем Thinking Machines Corporation для разработки, создания и продажи таких многопроцессорных компьютеров. В 1985 году была представлена первая из его соединительных машин, CM-1 (быстро замененная ее более коммерческим преемником, CM-2). В CM-1 использовалось 65 536 недорогих однобитных процессоров, сгруппированных по 16 на чип (всего 4096 чипов), что позволяло выполнять некоторые вычисления в несколько миллиардов FLOPS — примерно сравнимо с самым быстрым суперкомпьютером Cray.
Суперкомпьютер Thinking Machines Corporation CM-2, 1987 год. Черный кубический корпус компьютера был полупрозрачным, чтобы можно было наблюдать алгоритмы вычислений, напоминающие нейронные (активный процессор активировал красный диод).
Первоначально Хиллис был вдохновлен тем, как мозг использует сложную сеть простых нейронов (нейронную сеть) для выполнения высокоуровневых вычислений. Фактически, первоначальная цель этих машин заключалась в решении проблемы искусственного интеллекта — распознавании лиц. Назначив каждый пиксель изображения отдельному процессору, Хиллис распределил вычислительную нагрузку, но при этом возникла проблема связи между процессорами. Топология сети, которую он разработал для облегчения взаимодействия между процессорами, представляла собой 12-мерный «гиперкуб», то есть каждый чип был напрямую связан с 12 другими чипами. Эти машины быстро стали известны как массивно-параллельные компьютеры. Машины Хиллиса не только открыли путь для новых многопроцессорных архитектур, но и продемонстрировали, насколько обычные или массовые процессоры можно использовать для достижения суперкомпьютерных результатов.
Другим распространенным приложением искусственного интеллекта для многопроцессорной обработки были шахматы. Например, в 1988 году компания HiTech, построенная в Университете Карнеги-Меллона в Питтсбурге, штат Пенсильвания, использовала 64 специализированных процессора (по одному на каждую клетку шахматной доски), чтобы стать первым компьютером, победившим гроссмейстера в матче. В феврале 1996 года Deep Blue от IBM, использующий 192 модифицированных процессора RS/6000, стал первым компьютером, победившим чемпиона мира Гарри Каспарова в «медленной» игре. Затем ему было поручено предсказывать погоду в Атланте, штат Джорджия, во время летних Олимпийских игр 1996 года. Его преемник (теперь с 256 специальными шахматными процессорами) победил Каспарова в ответном матче из шести партий в мае 1997 года.
Однако, как всегда, суперкомпьютеры в основном применялись в военных целях. После подписания Соединенными Штатами в 1996 году Договора о всеобъемлющем запрещении ядерных испытаний потребность в альтернативной программе сертификации стареющих ядерных арсеналов страны побудила Министерство энергетики профинансировать Инициативу ускоренных стратегических вычислений (ASCI). Цель проекта заключалась в том, чтобы к 2004 году создать компьютер, способный моделировать ядерные испытания, — для этого требовался компьютер, способный выполнять 100 триллионов флопс (100 терафлопс; самым быстрым из существующих компьютеров в то время был Cray T3E, способный производить 150 миллиардов флопс). ). ASCI Red, построенный в Sandia National Laboratories в Альбукерке, штат Нью-Мексико, совместно с корпорацией Intel, был первым, достигшим скорости 1 TFLOPS. Используя 9072 стандартных процессора Pentium Pro, он достиг производительности 1,8 терафлопс в декабре 1996 года и был полностью готов к июню 1997 года.
В то время как в Соединенных Штатах преобладал многопроцессорный подход, в Японии корпорация NEC вернулась к более старому подходу к индивидуальному проектированию компьютерного чипа — для своего симулятора Земли, который удивил многих компьютерных ученых, заняв первое место в отраслевом рейтинге TOP500. список скоростей суперкомпьютера в 2002 году. Однако он недолго удерживал эту позицию, поскольку в 2004 году прототип IBM Blue Gene / L с 8 192 вычислительными узлами достиг скорости около 36 терафлопс, что чуть превышает скорость симулятора Земли. .После двух удвоений количества процессоров ASCI Blue Gene/L, установленный в 2005 году в Sandia National Laboratories в Ливерморе, Калифорния, стал первой машиной, преодолевшей заветную отметку в 100 TFLOPS со скоростью около 135 TFLOPS. Другие машины Blue Gene/L с аналогичной архитектурой занимали многие из первых мест в последовательных списках TOP500. Благодаря регулярным усовершенствованиям ASCI Blue Gene/L в 2007 г. достиг скорости, превышающей 500 терафлопс. Эти суперкомпьютеры IBM также заслуживают внимания благодаря выбору операционной системы, Linux и поддержке IBM в разработке приложений с открытым исходным кодом.
Первый компьютер, производительность которого превысила 1000 терафлопс, или 1 петафлопс, был создан IBM в 2008 году. Машина, получившая название Roadrunner в честь птицы штата Нью-Мексико, была впервые протестирована на объектах IBM в Нью-Йорке, где она достигла важного рубежа. перед разборкой для отправки в Лос-Аламосскую национальную лабораторию в Нью-Мексико. В тестовой версии использовалось 6 948 двухъядерных микрочипов Opteron от Advanced Micro Devices (AMD) и 12 960 процессоров Cell Broadband Engine от IBM (впервые разработанных для использования в видеосистеме Sony Computer Entertainment PlayStation 3). Процессор Cell был разработан специально для выполнения интенсивных математических вычислений, необходимых для обработки механизмов моделирования виртуальной реальности в электронных играх, — процесс, аналогичный вычислениям, которые необходимы ученым-исследователям при работе со своими математическими моделями.
Посмотрите, как исследователи моделируют трехмерное движение человеческого риновируса с помощью суперкомпьютера IBM Blue Gene Q, чтобы понять, как работает вирус
Посмотрите трехмерную симуляцию движения человеческого риновируса, вызывающего простуду. Моделирование было произведено с помощью суперкомпьютера IBM Blue Gene/Q.
Такой прогресс в вычислительной технике позволил исследователям впервые оказаться на грани возможности проводить компьютерное моделирование, основанное на первопринципах физики, а не просто на упрощенных моделях. Это, в свою очередь, открыло перспективы для прорывов в таких областях, как метеорология и анализ глобального климата, фармацевтический и медицинский дизайн, новые материалы и аэрокосмическая техника. Самым большим препятствием для реализации всего потенциала суперкомпьютеров остаются огромные усилия, необходимые для написания программ таким образом, чтобы различные аспекты задачи могли обрабатываться одновременно как можно большим числом различных процессоров. Даже управление этим в случае менее дюжины процессоров, которые обычно используются в современных персональных компьютерах, не поддавалось никакому простому решению, хотя инициатива IBM с открытым исходным кодом при поддержке различных академических и корпоративных партнеров достигла прогресса в 1990-х и 2000-х годах. .
Несмотря на то, что были приложены все усилия для соблюдения правил стиля цитирования, могут быть некоторые расхождения. Если у вас есть какие-либо вопросы, обратитесь к соответствующему руководству по стилю или другим источникам.
Наши редакторы рассмотрят то, что вы отправили, и решат, нужно ли пересматривать статью.
цифровой компьютер, любое из класса устройств, способных решать задачи путем обработки информации в дискретной форме. Он работает с данными, включая величины, буквы и символы, которые выражены в двоичном коде, т. е. с использованием только двух цифр 0 и 1. Считая, сравнивая и манипулируя этими цифрами или их комбинациями в соответствии с набором инструкций, хранимых в своей памяти цифровая вычислительная машина может выполнять такие задачи, как управление производственными процессами и регулирование работы машин; анализировать и систематизировать огромные объемы бизнес-данных; и моделировать поведение динамических систем (например, глобальные погодные условия и химические реакции) в научных исследованиях.
Далее следует краткое описание цифровых компьютеров. Полное описание см. в см. информатике: основные компьютерные компоненты.
Компьютеры размещают веб-сайты, состоящие из HTML, и отправляют текстовые сообщения так же просто, как. РЖУ НЕ МОГУ. Взломайте этот тест, и пусть какая-нибудь технология подсчитает ваш результат и раскроет вам его содержание.
Функциональные элементы
Типичная цифровая компьютерная система имеет четыре основных функциональных элемента: (1) оборудование ввода-вывода, (2) основную память, (3) блок управления и (4) арифметико-логическое устройство. Любое из ряда устройств используется для ввода данных и программных инструкций в компьютер и для получения доступа к результатам операции обработки.Общие устройства ввода включают клавиатуры и оптические сканеры; устройства вывода включают принтеры и мониторы. Информация, полученная компьютером от своего блока ввода, сохраняется в основной памяти или, если не для непосредственного использования, во вспомогательном запоминающем устройстве. Блок управления выбирает и вызывает инструкции из памяти в соответствующей последовательности и передает соответствующие команды соответствующему блоку. Он также синхронизирует различные рабочие скорости устройств ввода и вывода со скоростью арифметико-логического устройства (ALU), чтобы обеспечить правильное перемещение данных по всей компьютерной системе. ALU выполняет арифметические и логические алгоритмы, выбранные для обработки входящих данных, с чрезвычайно высокой скоростью — во многих случаях за наносекунды (миллиардные доли секунды). Основная память, блок управления и АЛУ вместе составляют центральный процессор (ЦП) большинства цифровых компьютерных систем, а устройства ввода-вывода и вспомогательные запоминающие устройства составляют периферийное оборудование.
Разработка цифрового компьютера
Блез Паскаль из Франции и Готфрид Вильгельм Лейбниц из Германии изобрели механические цифровые вычислительные машины в 17 веке. Однако обычно считается, что английский изобретатель Чарльз Бэббидж создал первый автоматический цифровой компьютер. В 1830-х годах Бэббидж разработал свою так называемую аналитическую машину, механическое устройство, предназначенное для объединения основных арифметических операций с решениями, основанными на собственных вычислениях. Планы Бэббиджа воплотили в себе большинство фундаментальных элементов современного цифрового компьютера. Например, они призывали к последовательному управлению, т. е. программному управлению, которое включало ветвление, циклирование, а также арифметические и запоминающие устройства с автоматической распечаткой. Однако устройство Бэббиджа так и не было завершено и было забыто до тех пор, пока его труды не были заново открыты более века спустя.
Огромное значение в эволюции цифрового компьютера имели работы английского математика и логика Джорджа Буля. В различных эссе, написанных в середине 1800-х годов, Буль обсуждал аналогию между символами алгебры и символами логики, используемыми для представления логических форм и силлогизмов. Его формализм, работающий только с 0 и 1, стал основой того, что сейчас называется булевой алгеброй, на которой основаны теория и процедуры компьютерного переключения.
Джону В. Атанасову, американскому математику и физику, приписывают создание первого электронного цифрового компьютера, который он построил с 1939 по 1942 год с помощью своего аспиранта Клиффорда Э. Берри. Конрад Цузе, немецкий инженер, фактически изолированный от других разработок, в 1941 году завершил строительство первой действующей вычислительной машины с программным управлением (Z3). В 1944 году Ховард Эйкен и группа инженеров корпорации International Business Machines (IBM) завершили работу над Harvard Mark I – машиной, операции обработки данных которой контролировались главным образом электрическими реле (коммутационными устройствами).
Клиффорд Э. Берри и компьютер Атанасова-Берри, или ABC, c. 1942 г. ABC, возможно, был первым электронным цифровым компьютером.
С момента разработки Harvard Mark I цифровой компьютер развивался быстрыми темпами. Последовательность достижений в компьютерном оборудовании, главным образом в области логических схем, часто делится на поколения, при этом каждое поколение включает группу машин, использующих общую технологию.
В 1946 году Дж. Преспер Эккерт и Джон У. Мочли из Пенсильванского университета сконструировали ENIAC (аббревиатура от eэлектронный nмерический i). интегратор ии cкомпьютер), цифровая машина и первый электронный компьютер общего назначения. Его вычислительные возможности были заимствованы у машины Атанасова; оба компьютера включали электронные лампы вместо реле в качестве активных логических элементов, что привело к значительному увеличению скорости работы. Концепция компьютера с хранимой программой была представлена в середине 1940-х годов, а идея хранения кодов инструкций, а также данных в электрически изменяемой памяти была реализована в EDVAC (electronic, d создать vпеременный аавтоматический cкомпьютер).
Второе поколение компьютеров появилось в конце 1950-х годов, когда в продажу поступили цифровые машины, использующие транзисторы.Хотя этот тип полупроводникового устройства был изобретен в 1948 году, потребовалось более 10 лет опытно-конструкторских работ, чтобы сделать его жизнеспособной альтернативой электронной лампе. Небольшой размер транзистора, его большая надежность и относительно низкое энергопотребление значительно превосходили лампу. Его использование в компьютерных схемах позволило производить цифровые системы, которые были значительно эффективнее, меньше и быстрее, чем их предки первого поколения.
Транзистор был изобретен в 1947 году в Bell Laboratories Джоном Бардином, Уолтером Х. Браттейном и Уильямом Б. Шокли.
В конце 1960-х и 1970-х годах компьютерное оборудование стало еще более значительным. Первым было изготовление интегральной схемы, твердотельного устройства, содержащего сотни транзисторов, диодов и резисторов на крошечном кремниевом чипе. Эта микросхема сделала возможным производство мейнфреймов (крупномасштабных) компьютеров с более высокими рабочими скоростями, мощностью и надежностью при значительно меньших затратах. Другим типом компьютеров третьего поколения, которые были разработаны в результате микроэлектроники, были миникомпьютеры, машина значительно меньшего размера, чем стандартный мэйнфрейм, но достаточно мощная, чтобы управлять приборами целой научной лаборатории.
Развитие крупномасштабной интеграции (БИС) позволило производителям оборудования разместить тысячи транзисторов и других связанных компонентов на одном кремниевом чипе размером с ноготь ребенка. Такая микросхема дала два устройства, которые произвели революцию в компьютерной технике. Первым из них был микропроцессор, представляющий собой интегральную схему, содержащую все арифметические, логические и управляющие схемы центрального процессора. Его производство привело к разработке микрокомпьютеров, систем размером не больше портативных телевизоров, но со значительной вычислительной мощностью. Другим важным устройством, появившимся из схем БИС, была полупроводниковая память. Это компактное запоминающее устройство, состоящее всего из нескольких микросхем, хорошо подходит для использования в миникомпьютерах и микрокомпьютерах. Кроме того, он находит применение во все большем числе мейнфреймов, особенно в тех, которые предназначены для высокоскоростных приложений, из-за его высокой скорости доступа и большой емкости памяти. Такая компактная электроника привела в конце 1970-х годов к разработке персонального компьютера, цифрового компьютера, достаточно небольшого и недорогого, чтобы его могли использовать обычные потребители.
К началу 1980-х интегральные схемы продвинулись до очень крупномасштабной интеграции (СБИС). Этот дизайн и технология производства значительно увеличили плотность схем микропроцессора, памяти и вспомогательных микросхем, т. Е. Те, которые служат для сопряжения микропроцессоров с устройствами ввода-вывода. К 1990-м годам некоторые схемы СБИС содержали более 3 миллионов транзисторов на кремниевой микросхеме площадью менее 0,3 квадратных дюйма (2 квадратных см).
Цифровые компьютеры 1980-х и 90-х годов, использующие технологии БИС и СБИС, часто называют системами четвертого поколения. Многие микрокомпьютеры, произведенные в 1980-х годах, были оснащены одним чипом, на котором были интегрированы схемы процессора, памяти и функций интерфейса. (См. также суперкомпьютер.)
Использование персональных компьютеров выросло в 1980-х и 90-х годах. Распространение Всемирной паутины в 1990-х годах привело миллионы пользователей к Интернету, всемирной компьютерной сети, и к 2019 году около 4,5 миллиардов человек, более половины населения мира, имели доступ к Интернету. Компьютеры становились меньше и быстрее, и в начале 21 века они были повсеместно распространены в смартфонах, а затем и в планшетных компьютерах.
Редакторы Британской энциклопедии Эта статья была недавно отредактирована и обновлена Эриком Грегерсеном.
На этой фотографии показана оперативная память (вверху слева), беспроводная карта (внизу в центре) и небольшая батарея (внизу справа).
Основой работы мозгов компьютера является материнская плата. Материнская плата служит буквально основой для многих других элементов внутри вашего компьютера. Это большая печатная плата. Материнская плата обеспечивает соединения и разъемы, которые позволяют другим компонентам взаимодействовать друг с другом.Материнские платы бывают разных форм и размеров. Материнская плата ноутбука может отличаться от материнской платы настольного ПК.
Мозг компьютера представляет собой микропроцессор, называемый центральным процессором (ЦП). Процессор — это микросхема, содержащая миллионы крошечных транзисторов. Работа ЦП заключается в выполнении вычислений, необходимых для работы компьютера — транзисторы в ЦП манипулируют данными. Вы можете думать о ЦП как о человеке, принимающем решения.
Еще одним важным компонентом компьютеров является память. Двумя наиболее важными видами памяти являются постоянная память (ПЗУ) и оперативная память (ОЗУ). Компьютеры могут читать данные, хранящиеся в ПЗУ, но не могут записывать в них новые данные. С оперативной памятью компьютеры могут читать и записывать в эту память. Без компьютерной памяти каждое вычисление на компьютере не имело бы состояния. Это означает, что не было бы возможности сохранять информацию от одного момента к другому, и каждый процесс начинался бы с чистого листа. Это бесполезно, если вы хотите создавать сложные программы.
Многие настольные ПК имеют возможность установки дополнительной оперативной памяти. Пользователю просто нужно открыть компьютер и вставить микросхемы оперативной памяти в соответствующие разъемы на материнской плате. Но другие компьютеры — это запечатанные системы — вы не должны открывать их и вносить изменения, поэтому вы в значительной степени застряли с тем, что у вас есть.
Микросхема, называемая базовой системой ввода-вывода (BIOS), тесно взаимодействует с ЦП. BIOS - это особый вид ПЗУ. Если вы думаете о процессоре как о мозге компьютера, то вы можете считать BIOS его позвоночником. Задача BIOS — управлять взаимодействием между программным обеспечением, работающим на компьютере, и аппаратными компонентами машины.
Материнская плата, ЦП, ПЗУ, ОЗУ и BIOS выполняют большую часть тяжелой работы компьютерных процессов. Они отвечают за выделение ресурсов приложениям, чтобы они работали бесперебойно. Они также принимают ввод с таких устройств, как клавиатуры, мыши и другие компьютерные аксессуары.
В вашем компьютере есть множество других компонентов. Давайте углубимся в работу компьютера в следующем разделе.
Хотя мы объединяем видеокарты с "внутренностями" компьютера, некоторые из них имеют собственные микропроцессоры, называемые графическими процессорами (GPU). Графический процессор может обрабатывать часть вычислительной мощности, необходимой для создания богатой графики, что снимает часть нагрузки с ЦП.
Принципы, по которым вычисляются сети нейронов, и то, как пластичность синаптических весов, зависящая от времени спайка (STDP), генерирует и поддерживает их вычислительную функцию, неизвестны. Предыдущая работа показала, что мягкие схемы «победитель получает все» (WTA), в которых пирамидальные нейроны подавляют друг друга через интернейроны, являются распространенным мотивом корковых микросхем. С помощью теоретического анализа и компьютерного моделирования мы показываем, что байесовские вычисления индуцируются в этих сетевых мотивах через STDP в сочетании с зависящими от активности изменениями возбудимости нейронов. Фундаментальными компонентами этого эмерджентного байесовского вычисления являются априорные значения, возникающие в результате адаптации возбудимости нейронов и неявных генеративных моделей для скрытых причин, которые создаются в синаптических весах посредством STDP. На самом деле удивительным результатом является то, что STDP может аппроксимировать мощный принцип подгонки таких неявных генеративных моделей к многомерным пиковым входным данным: максимизация ожидания. Наши результаты показывают, что экспериментально наблюдаемая спонтанная активность и изменчивость корковых нейронов от пробы к пробе являются важными характеристиками их способности обрабатывать информацию, поскольку их функциональная роль заключается в представлении вероятностных распределений, а не статических нейронных кодов. Кроме того, он предлагает сети байесовских вычислительных модулей в качестве новой модели распределенной обработки информации в коре головного мозга.
Резюме автора
Как нейроны учатся извлекать информацию из своих входных данных и выполнять значимые вычисления? Нейроны получают входные данные в виде непрерывных потоков потенциалов действия или «спайков», которые достигают тысяч синапсов. Сила этих синапсов — синаптический вес — постоянно изменяется. В многочисленных экспериментах было продемонстрировано, что эта модификация зависит от временного порядка спайков в пре- и постсинаптических нейронах, правила, известного как STDP, но остается неясным, как это способствует функциям более высокого уровня в архитектурах нейронных сетей. В этой статье мы показываем, что STDP индуцирует в часто встречающемся мотиве связности в коре — сети «победитель получает все» (WTA) — автономное, самоорганизованное обучение вероятностным моделям ввода. Результирующей функцией нейронной цепи является байесовское вычисление последовательностей входных импульсов. Такое неконтролируемое обучение ранее широко изучалось на абстрактном алгоритмическом уровне. Мы показываем, что STDP приближается к одному из самых мощных методов обучения в машинном обучении, максимизации ожиданий (EM).В серии компьютерных симуляций мы продемонстрировали, что это позволяет STDP в схемах WTA решать сложные обучающие задачи, достигая уровня производительности, который превосходит предыдущие случаи использования импульсных нейронных сетей.
Редактор: Олаф Спорнс, Университет Индианы, США
Получено: 19 мая 2012 г.; Принято: 4 марта 2013 г.; Опубликовано: 25 апреля 2013 г.
Авторские права: © 2013 Nessler et al. Это статья с открытым доступом, распространяемая в соответствии с условиями лицензии Creative Commons Attribution License, которая разрешает неограниченное использование, распространение и воспроизведение на любом носителе при условии указания автора и источника.
Конкурирующие интересы. Авторы заявили об отсутствии конкурирующих интересов.
Введение
Многочисленные экспериментальные данные показывают, что мозг применяет принципы байесовского вывода для анализа сенсорных стимулов, рассуждений и выработки адекватных двигательных сигналов 1–5. Байесовский вывод был предложен в качестве механизма для важной задачи вероятностного восприятия [6], в котором должны быть выведены скрытые причины (например, категории объектов), которые объясняют зашумленные и потенциально неоднозначные сенсорные входные данные. Этот процесс требует сочетания априорных убеждений о наличии причин в окружающей среде и вероятностных генеративных моделей вероятных сенсорных наблюдений, которые являются результатом любой данной причины. По теореме Байеса результат процесса вывода дает апостериорное распределение вероятностей по скрытым причинам, которое вычисляется путем умножения априорной вероятности на вероятность. сенсорных свидетельств для всех возможных причин. В этой статье мы называем вычисление апостериорных вероятностей с помощью комбинации вероятностных априорных и вероятностных моделей байесовскими вычислениями. Ранее было показано, что априорные значения и модели, кодирующие вероятности внешних стимулов для данной причины, могут быть представлены в параметрах моделей нейронных сетей [6], [7]. Однако, несмотря на существующие доказательства того, что байесовские вычисления являются первичным этапом обработки информации в мозгу, остается открытым вопрос о том, как сети нейронов могут получать эти априорные модели и модели правдоподобия и как они комбинируют их для получения апостериорных распределений скрытых причин. .
Основные вычислительные единицы мозга, нейроны и синапсы, хорошо охарактеризованы. Синаптические связи подвержены различным формам пластичности, и недавние экспериментальные результаты подчеркнули роль STDP, которая постоянно изменяет синаптические силы (веса) в зависимости от разницы между временем возбуждения пре- и постсинаптических нейронов (см. [8]. ], [9] для отзывов). Функциональные последствия STDP могут напоминать последствия моделей Хебба, основанных на скорости [10], но также могут привести к появлению временного кодирования [11] и нормализации скорости [12], [13]. Кроме того, возбудимость нейронов модифицируется за счет их импульсной активности [14]. Некоторые намеки на организацию локальных вычислений в стереотипных столбцах или так называемых корковых микросхемах [15] возникают из данных об анатомическом строении этих предполагаемых базовых вычислительных модулей мозга. В частности, было замечено, что локальные ансамбли пирамидных нейронов на слоях 2/3 и слоях 5/6 обычно ингибируют друг друга через непрямые синаптические связи с участием тормозных нейронов [16]. Эти вездесущие сетевые мотивы были названы схемами «мягкий победитель получает все» (WTA) и были предложены в качестве моделей нейронных сетей для реализации таких функций, как нелинейный отбор [16], [17], нормализация [18], избирательное внимание [19]. ], принятия решений [20], [21] или как примитивы для вычислений общего назначения [22], [23].
Всеобъемлющая теория, объясняющая появление вычислительной функции в сетях WTA, состоящих из пиковых нейронов, посредством STDP, до сих пор отсутствует. В этой статье мы показываем, что STDP и адаптация нейронной возбудимости, вероятно, обеспечат фундаментальные компоненты байесовских вычислений в мягких схемах WTA, давая представления апостериорных распределений для скрытых причин высокоразмерных спайковых входов через вероятности срабатывания пирамидальных нейронов. Это подробно показано для простой, но очень актуальной модели байесовского вывода с прямой связью, в которой распределение для одной скрытой причины выводится из последовательностей афферентных спайков. Таким образом, наша новая теория описывает, как модули мягких цепей WTA могут собирать и выполнять байесовские вычисления для решения одной из фундаментальных задач восприятия, а именно приблизительного определения категории объекта на основе входных данных с прямой связью.Модели нейронных сетей, которые могут обрабатывать байесовский вывод в общих графических моделях, включая двунаправленный вывод по произвольным наборам случайных величин, объяснение эффектов, различные модели статистической зависимости или вывод во времени, требуют более сложных сетевых архитектур [24], [25]. , и являются предметом продолжающихся исследований. Такие сети могут состоять из взаимосвязанных мягких цепей WTA, что, как было показано, является мощным принципом для проектирования нейронных сетей, которые могут выполнять произвольные детерминированные или стохастические вычисления [22], [23], [25]. Таким образом, нашу теорию можно рассматривать как первый шаг к изучению желаемой функциональности отдельных модулей.
В основе этой связи между байесовскими вычислениями и сетевыми мотивами кортикальных микросхем лежит новое теоретическое понимание на микроуровне: если изменения синаптической силы, вызванные STDP, определенным образом зависят от текущей синаптической силы, STDP экспоненциально быстро аппроксимирует для каждого синапса условную вероятность того, что пресинаптический нейрон активируется непосредственно перед постсинаптическим нейроном (при условии, что постсинаптический нейрон активируется). Этот принцип предполагает, что синаптические веса можно понимать как условные вероятности, а совокупность всех весов нейрона — как генеративную модель для многомерных входных данных, которая — после обучения — заставляет его срабатывать с вероятностью, зависящей от того, насколько хорошо его текущий ввод согласуется с этой генеративной моделью. Концепция генеративной модели хорошо известна в теоретической нейробиологии [26], [27], но до сих пор она в основном применялась в контексте абстрактной архитектуры нейронных цепей без импульсов. В байесовских вычислениях, которые мы рассматриваем в этой статье, внутренние генеративные модели неявно представлены через изученные значения восходящих весовых коэффициентов в цепях софт-WTA, а вывод осуществляется нейронами, которые интегрируют такие синаптические входы и конкурируют за срабатывание в цепь WTA. В отличие от предыдущих моделей вероятностного вывода, основанных на частоте [28]–[30], каждый всплеск в нашей модели имеет четкую семантическую интерпретацию: один всплеск указывает на мгновенное присвоение определенного значения абстрактной переменной, представленной возбуждающим нейроном. В контексте байесовского вывода каждый всплеск на входе свидетельствует о наблюдаемой переменной, тогда как каждый всплеск на выходе представляет собой одну стохастическую выборку из апостериорного распределения по скрытым причинам, закодированным в схеме.
Мы показываем, что STDP может аппроксимировать, возможно, самый мощный известный принцип обучения для создания этих неявных генеративных моделей в синаптических весах: максимизация ожидания (EM). Тот факт, что STDP аппроксимирует EM, примечателен, поскольку из машинного обучения известно, что EM может решить фундаментальную проблему курицы и яйца в системах обучения без учителя [31]: обнаружить - без учителя - скрытые причины для сложных входных данных, и побудить отдельных обучающихся агентов специализироваться каждый на одной из скрытых причин. Проблема в том, что пока скрытые причины неизвестны обучающей системе, она не может сказать скрытым единицам, на чем специализироваться. EM — это итерационный процесс, в котором первоначальные предположения о скрытых причинах применяются к текущим входным данным (-шаг) и последовательно улучшаются (-шаг), пока не будет достигнут локальный максимум логарифмической вероятности входных данных. Фактически, основная идея ЭМ настолько широко применима и мощна, что большинство современных подходов к машинному обучению для обнаружения характерных закономерностей или структур в реальных данных без участия человека-наблюдателя полагаются на ту или иную форму ЭМ [32]. Мы показываем, что в нашей схеме мягкого WTA со всплесками каждый выходной всплеск можно рассматривать как применение шага EM. Последующую модификацию синаптических весов между входными пресинаптическими нейронами и тем самым нейроном, который произвел постсинаптический спайк в соответствии с STDP, можно рассматривать как движение в направлении -шага стохастической онлайн-процедуры ЭМ. Эта процедура направлена на создание оптимальных внутренних моделей для высокоразмерных всплесков, максимизируя их -вероятность. Мы называем эту интерпретацию функциональной роли STDP в контексте пиковых значений цепей WTA как максимизацию ожиданий (SEM) на основе пиковых значений.
Этот анализ открывает новую перспективу вычислительной роли локальных цепей WTA как частей корковых микросхем и роли STDP в таких цепях: основные вычислительные операции байесовских вычислений (теорема Байеса) для вывода скрытых причины, поступающие снизу вверх, появляются в этих локальных цепях благодаря пластичности. Пирамидальные нейроны в цепи WTA кодируют в своих спайках выборки из апостериорного распределения по скрытым причинам для высокоразмерных входных спайков. Ингибирование в WTA отвечает за нормализацию [18] и, кроме того, контролирует скорость, с которой генерируются образцы.Необходимое умножение вероятностей (задаваемых неявными генеративными моделями, которые изучены и закодированы в их синаптических весах) с одновременно изученными априорными значениями для скрытых причин (в нашей модели закодированных в возбудимости нейронов) не требует каких-либо дополнительных вычислительных машин. Вместо этого он автоматически осуществляется (в масштабе) через линейные характеристики стандартных моделей нейронов. Мы демонстрируем возникающие вычислительные возможности этих самоорганизующихся модулей для байесовских вычислений с помощью компьютерного моделирования. На самом деле оказывается, что результирующая конфигурация сетей нейронов с шипами может решать сложные вычислительные задачи, такие как обнаружение прототипов рукописных цифр без какого-либо контроля. Мы также показываем, что эти возникающие байесовские вычислительные модули способны обнаруживать и обмениваться данными через код разреженного выходного пика, повторяя пространственно-временные паттерны входных пиков. Поскольку такие самоадаптирующиеся вычисления и способность различать многомерные пространственно-временные спайковые паттерны не только важны для ранней сенсорной обработки, но и могут представлять собой общий этап обработки информации также в высших областях коры, наш анализ предлагает рассмотреть сети самоанализа. организация модулей для байесовских вычислений на основе спайков в качестве новой модели распределенной обработки информации в реальном времени в мозгу.
Предварительные идеи для реализации EM на основе пиков уже были представлены в расширенном реферате [20], где мы проанализировали связь простого правила STDP с правилом обучения Хебба и набросали доказательство для стохастического онлайн-EM. В настоящей работе мы обеспечиваем строгий математический анализ процедуры обучения, доказательство сходимости, расширяем структуру в сторону изучения пространственно-временных паттернов спайков и подробно обсуждаем связь нашего правила STDP с экспериментальными результатами, а также интерпретацию пиков как выборки из мгновенных апостериорных распределений вероятностей в контексте EM.
Результаты
В этом разделе мы определяем простую модель схемы и показываем, что каждое пиковое событие схемы может быть описано как одна независимая выборка дискретного распределения вероятностей, которое само изменяется с течением времени в ответ на входное пиковое значение. В рамках этой сети мы анализируем вариант правила STDP, в котором сила потенцирования зависит от текущего значения веса. Это локальное правило обучения, которое подтверждается экспериментальными данными и на промежуточных частотах спайков очень напоминает типичные правила STDP из литературы, приводит к стохастической сходимости каждого синаптического веса к логарифму вероятности того, что пресинаптический входной нейрон произвел спайк в течение короткого времени. временное окно, до пика постсинаптического нейрона во времени: (1) Затем мы показываем, что сетевую модель можно рассматривать как выполнение байесовских вычислений, а это означает, что каждый выброс можно понимать как выборку из апостериорного распределения по скрытым причинам в генеративной вероятностной модели. модель, которая сочетает в себе априорные вероятности и данные из текущих последовательностей всплесков ввода.
Это понимание спайков как примеров скрытых причин приводит к центральному результату этой статьи. Мы показываем, что STDP реализует стохастическую версию максимизации ожидания для неконтролируемого обучения генеративной модели, и представляем результаты сходимости для SEM. Важно отметить, что эта реализация EM основана на количестве всплесков, а не на частоте всплесков.
Наконец мы обсуждаем, как наша модель может быть реализована с помощью биологически реалистичных механизмов. В частности, это обеспечивает связь между механизмами бокового торможения в цепях WTA и изучением вероятностных моделей. Наконец, в нескольких компьютерных экспериментах мы продемонстрировали, что SEM может решать очень сложные задачи, такие как обнаружение и изучение повторяющихся шаблонов спайков, а также изучение моделей для изображений рукописных цифр без какого-либо контроля.
Определение сетевой модели
Наша модель состоит из сети спайковых нейронов, организованных в цепь WTA, которая является одним из наиболее часто изучаемых паттернов связности (или сетевых мотивов) корковых микросхем [16]. Вход схемы представлен возбуждающими нейронами. Этот вход проецируется на популяцию возбуждающих нейронов, которые расположены в цепи WTA (см. рис. 1). Мы моделируем эффект латерального торможения, являющегося конкурентным механизмом цепи WTA [33], с помощью общего тормозного сигнала, подаваемого на все нейроны и в свою очередь зависящего от активности нейронов. Доказательства наличия таких общих локальных тормозных сигналов для близлежащих нейронов вытекают из многочисленных экспериментальных результатов, см., например, [16], [34]–[36]. Мы не устанавливаем априори определенной функциональной связи между общим сигналом торможения и возбуждающей активностью. Вместо этого позже мы выведем необходимые условия для этой связи и предложим механизм, который будем использовать для экспериментов.
Читайте также:
- Сколько вам должно быть лет, чтобы работать в компьютерном клубе?
- Acronis disk Director не объединяет тома
- Что может случиться с компьютером
- Док-станции обычно меньше репликаторов портов и не имеют динамиков или слотов PCI
- Почему вам нужно расширение файла, чтобы увеличить громкость и улучшить читаемость