Когда впервые были получены важные практические результаты при объединении компьютеров с

Обновлено: 21.11.2024

Магнитные наночастицы, состоящие из атомов железа и платины, чуть шире нити ДНК человека, являются многообещающими материалами для записывающих и запоминающих устройств следующего поколения, таких как жесткие диски. Создание этих устройств из наночастиц должно увеличить емкость и плотность хранения, но понимание того, как магнетизм работает на уровне отдельных атомов, имеет решающее значение для достижения наилучшей производительности.

Однако магнетизм в атомном масштабе крайне сложно наблюдать экспериментально, даже с помощью лучших микроскопов и технологий обработки изображений.

Вот почему исследователи, работающие с магнитными наночастицами в Калифорнийском университете в Лос-Анджелесе (UCLA) и Национальной лаборатории Лоуренса в Беркли Министерства энергетики США (DOE), обратились к ученым-вычислителям из Окриджской национальной лаборатории Министерства энергетики США (ORNL). ), чтобы помочь решить уникальную задачу: смоделировать магнетизм на атомном уровне, используя экспериментальные данные для реальной наночастицы.

"Эти типы расчетов были выполнены для идеальных частиц с идеальной кристаллической структурой, но не для реальных частиц, – – сказал Маркус Эйзенбах, специалист по вычислительной технике Окриджского вычислительного центра (OLCF), пользовательского центра Управления науки Министерства энергетики США. находится в ОРНЛ.

Eisenbach разрабатывает квантово-механические модели электронной структуры, которые предсказывают магнитные свойства материалов. Работая с Полом Кентом, специалистом по вычислительным материалам в Центре наук о нанофазных материалах ORNL, команда сотрудничала с исследователями из Калифорнийского университета в Лос-Анджелесе и лаборатории молекулярной литейной лаборатории Беркли, чтобы объединить экспериментальные данные мирового класса с вычислениями мирового класса, чтобы сделать что-то новое — смоделировать атом магнетизма. на атом в реальной наночастице.

Используя новые данные, полученные от исследовательских групп на Западном побережье, Эйзенбах и Кент смогли точно смоделировать измеренную атомную структуру, включая дефекты, уникальной железо-платиновой (FePt) наночастицы и смоделировать ее магнитные свойства на 27 -петафлопсный суперкомпьютер Titan в OLCF.

Коды электронной структуры принимают атомную и химическую структуру и определяют соответствующие магнитные свойства. Однако эти структуры, как правило, получаются из множества двумерных изображений электронной микроскопии или рентгеновской кристаллографии, усредняемых вместе, что приводит к репрезентативной, но не истинной трехмерной структуре.

"В этом случае исследователи смогли получить точную трехмерную структуру реальной частицы", — сказал Эйзенбах. "Группа Калифорнийского университета в Лос-Анджелесе разработала новый экспериментальный метод, с помощью которого они могут определить, где находятся атомы - координаты - и химическое разрешение, или что они собой представляют - железо или платина".

Результаты были опубликованы 2 февраля в журнале Nature.

Новые и улучшенные данные

Используя современный электронный микроскоп в лаборатории молекулярной массы Беркли, сотрудники лаборатории Беркли и Калифорнийского университета в Лос-Анджелесе измерили несколько двумерных изображений одной наночастицы FePt в разных ориентациях. Затем исследователи Калифорнийского университета в Лос-Анджелесе использовали разработанный ими алгоритм реконструкции GENFIRE, чтобы совместить двухмерные изображения и реконструировать трехмерные положения атомов с высочайшей точностью. Наночастица, которую они изобразили, была синтезирована в Университете Буффало.

"Наш метод называется атомно-электронной томографией (АЭТ) и позволяет реконструировать трехмерную атомную структуру материалов с точностью до 22 пикометров", – сказал Цзяньвэй (Джон) Мяо из Калифорнийского университета в Лос-Анджелесе. Пикометр – это одна триллионная часть метра. «Как и при компьютерной томографии, вы берете несколько изображений образцов и реконструируете их в трехмерное изображение».

Однако компьютерная томография позволяет поставить медицинский диагноз с точностью до миллиметра, в то время как методика AET, разработанная командой Калифорнийского университета в Лос-Анджелесе, измеряет расположение атомов на уровне сотен пикометров, или расстояние между атомами.

Команда Калифорнийского университета в Лос-Анджелесе также разработала алгоритмы для отслеживания положения примерно 6 500 атомов железа и 16 500 атомов платины, выявляя трехмерный химический беспорядок и другие дефекты на атомном уровне.

"Мы обнаружили, что структура атома намного сложнее, чем думали люди", — сказал Мяо. «В этой железо-платиновой наночастице было много дефектов и несовершенств».

Одной из определяющих характеристик наночастиц FePt является группировка атомов железа и платины в области или «зерна», разделенные границами. Исследователи хотели понять, как магнетизм будет различаться в зависимости от границ, учитывая, что соотношение и порядок атомов железа и платины меняется от зерна к зерну. В конечном счете, магнетизм от зерна к зерну может повлиять на производительность магнитного запоминающего устройства.

«Вычислительная задача заключалась в том, чтобы продемонстрировать, как магнетизм упорядочен в реальной частице, и понять, как он меняется между границами зерен разного порядка», — сказал Эйзенбах.

Веха в области суперкомпьютеров

Впервые исследователи смоделировали локальную магнитную анизотропию на атомном уровне в магнитном материале на основе экспериментальных данных. На этом рисунке показаны изменения магнитной энергии для отдельных атомов железа и платины от наночастицы FePt. Изображение предоставлено Маркусом Эйзенбахом и Nature.

Магнетизм на атомном уровне управляется квантовой механикой. Этот факт потряс классические физические расчеты и потребовал все более сложных расчетов на основе первых принципов или расчетов, основанных на уравнениях фундаментальной физики, а не на допущениях, которые уменьшают вычислительная нагрузка.

Что касается магнитных записывающих и запоминающих устройств, исследователей особенно интересует магнитная анизотропия, или направление магнетизма в атоме.

"Если анизотропия слишком слабая, бит, записанный в наночастицу, может перевернуться при комнатной температуре", – сказал Кент.

Для определения магнитной анизотропии Эйзенбах и Кент использовали два вычислительных кода для сравнения и проверки результатов.

Чтобы смоделировать суперячейку, состоящую примерно из 1300 атомов из сильно магнитных областей наночастицы из 23 000 атомов, они использовали код линейного масштабирования множественного рассеяния (LSMS), код теории функционала плотности из первых принципов, разработанный в ORNL.

"Код LSMS был разработан для больших магнитных систем и может работать с большим количеством атомов", — сказал Кент.

В качестве главного исследователя в 2017, 2016 и предыдущих наградах программы INCITE Эйзенбах масштабировал код LSMS для Titan для ряда проектов с магнитными материалами, а собственный код был оптимизирован для ускоренной архитектуры Titan, что ускоряет вычисления. более 8 раз на графических процессорах машины. Исключительно способный быстро обрабатывать большие магнитные системы, код LSMS получил премию Ассоциации вычислительной техники Гордона Белла за достижения в области высокопроизводительных вычислений в 1998 и 2009 годах, и разработки продолжают улучшать код для новых архитектур.

Работая с Ренатом Сабирьяновым из Университета Небраски в Омахе, команда также запустила VASP, пакет моделирования, который лучше подходит для меньшего количества атомов, для моделирования областей, содержащих около 32 атомов.

"Используя оба подхода, мы смогли подтвердить, что локальные результаты VASP согласуются с результатами LSMS, поэтому у нас есть высокая уверенность в моделировании", – сказал Айзенбах.

Компьютерное моделирование показало, что границы зерен сильно влияют на магнетизм. «Мы обнаружили, что энергия магнитной анизотропии внезапно переходит на границы зерен. Эти магнитные свойства очень важны», — сказал Мяо.

Исследователи надеются, что в будущем достижения в области вычислений и моделирования сделают возможным полное моделирование частиц, поскольку в настоящее время расчеты на основе первых принципов слишком интенсивны для решения мелкомасштабного магнетизма для областей размером более нескольких тысяч атомов.< /p>

Кроме того, подобные будущие симуляции могут показать, как различные процессы производства, например температура, при которой формируются наночастицы, влияют на магнетизм и производительность.

"В будущем есть надежда, что эти методы можно будет использовать для наблюдения за ростом наночастиц и понимания того, как оптимизировать рост для повышения производительности", – сказал Кент.

Несмотря на то, что были приложены все усилия для соблюдения правил стиля цитирования, могут быть некоторые расхождения. Если у вас есть какие-либо вопросы, обратитесь к соответствующему руководству по стилю или другим источникам.

Наши редакторы рассмотрят то, что вы отправили, и решат, нужно ли пересматривать статью.

Информатика — это изучение компьютеров и вычислений, а также их теоретических и практических приложений. Информатика применяет принципы математики, инженерии и логики во множестве функций, включая формулирование алгоритмов, разработку программного и аппаратного обеспечения и искусственный интеллект.

Самые влиятельные ученые-компьютерщики – Алан Тьюринг, взломщик кодов времен Второй мировой войны, которого обычно называют "отцом современных вычислений"; Тим Бернерс-Ли, изобретатель Всемирной паутины; Джон Маккарти, изобретатель языка программирования LISP и пионер искусственного интеллекта; и Грейс Хоппер, офицер ВМС США и ключевая фигура в разработке первых компьютеров, таких как UNIVAC I, а также в разработке компилятора языка программирования.

Информатика применяется в широком спектре дисциплин, включая моделирование последствий изменения климата и вируса Эбола, создание произведений искусства и визуализацию с помощью графического рендеринга, а также моделирование человеческого интерфейса с помощью искусственного интеллекта и машинного обучения.< /p>

Разработка видеоигр основана на принципах информатики и программирования.Современный рендеринг графики в видеоиграх часто использует передовые методы, такие как трассировка лучей, для обеспечения реалистичных эффектов. Развитие дополненной реальности и виртуальной реальности также расширило спектр возможностей разработки видеоигр.

Многие университеты по всему миру предлагают программы обучения основам теории информатики и прикладного программирования. Кроме того, распространенность онлайн-ресурсов и курсов позволяет многим людям самостоятельно изучать более практические аспекты компьютерных наук (такие как программирование, разработка видеоигр и дизайн приложений).

информатика, изучение компьютеров и вычислений, включая их теоретические и алгоритмические основы, аппаратное и программное обеспечение, а также их использование для обработки информации. Дисциплина информатики включает изучение алгоритмов и структур данных, проектирование компьютеров и сетей, моделирование данных и информационных процессов, а также искусственный интеллект. Информатика черпает некоторые из своих основ из математики и инженерии и поэтому включает в себя методы из таких областей, как теория массового обслуживания, вероятность и статистика, а также проектирование электронных схем. Информатика также широко использует проверку гипотез и экспериментирование при концептуализации, проектировании, измерении и уточнении новых алгоритмов, информационных структур и компьютерных архитектур.

Информатика считается частью семейства из пяти отдельных, но взаимосвязанных дисциплин: компьютерная инженерия, информатика, информационные системы, информационные технологии и разработка программного обеспечения. Это семейство стало известно под общим названием компьютерной дисциплины. Эти пять дисциплин взаимосвязаны в том смысле, что вычислительная техника является их объектом изучения, но они разделены, поскольку каждая из них имеет свою собственную исследовательскую перспективу и учебную направленность. (С 1991 года Ассоциация вычислительной техники [ACM], Компьютерное общество IEEE [IEEE-CS] и Ассоциация информационных систем [AIS] сотрудничают в разработке и обновлении таксономии этих пяти взаимосвязанных дисциплин и руководств, которые образовательные учреждения использовать во всем мире для своих программ бакалавриата, магистратуры и исследовательских программ.)

Основные разделы информатики включают традиционное изучение компьютерной архитектуры, языков программирования и разработки программного обеспечения. Однако они также включают вычислительную науку (использование алгоритмических методов для моделирования научных данных), графику и визуализацию, взаимодействие человека с компьютером, базы данных и информационные системы, сети, а также социальные и профессиональные проблемы, которые являются уникальными для практики информатики. . Как может быть очевидно, некоторые из этих подполей пересекаются по своей деятельности с другими современными областями, такими как биоинформатика и вычислительная химия. Эти совпадения являются следствием склонности ученых-компьютерщиков признавать многочисленные междисциплинарные связи в своей области и действовать в соответствии с ними.

Развитие информатики

Информатика возникла как самостоятельная дисциплина в начале 1960-х годов, хотя электронный цифровой компьютер, являющийся объектом ее изучения, был изобретен на два десятилетия раньше. Корни информатики лежат в основном в смежных областях математики, электротехники, физики и информационных систем управления.

Математика является источником двух ключевых концепций разработки компьютеров — идеи о том, что вся информация может быть представлена ​​в виде последовательности нулей и единиц, и абстрактного понятия «хранимой программы». В двоичной системе счисления числа представляются последовательностью двоичных цифр 0 и 1 точно так же, как числа в знакомой нам десятичной системе представляются цифрами от 0 до 9. Относительная легкость, с которой два состояния (например, высокое и низкое напряжение) могут быть реализованы в электрических и электронных устройствах, что естественным образом привело к тому, что двоичная цифра или бит стала основной единицей хранения и передачи данных в компьютерной системе.

Электротехника дает основы проектирования цепей, а именно идею о том, что электрические импульсы, поступающие в цепь, можно комбинировать с помощью булевой алгебры для получения произвольных выходных сигналов. (Булева алгебра, разработанная в 19 веке, предоставила формализм для проектирования схемы с двоичными входными значениями нулей и единиц [ложь или истина, соответственно, в терминологии логики], чтобы получить любую желаемую комбинацию нулей и единиц на выходе.) Изобретение транзистора и миниатюризация схем, а также изобретение электронных, магнитных и оптических носителей для хранения и передачи информации стали результатом достижений электротехники и физики.

Информационные системы управления, первоначально называвшиеся системами обработки данных, предоставили ранние идеи, на основе которых развились различные концепции информатики, такие как сортировка, поиск, базы данных, поиск информации и графические пользовательские интерфейсы. В крупных корпорациях размещались компьютеры, на которых хранилась информация, необходимая для ведения бизнеса — расчет заработной платы, бухгалтерский учет, управление запасами, контроль производства, отгрузка и получение.

Теоретическая работа над вычислительностью, начавшаяся в 1930-х годах, обеспечила необходимое распространение этих достижений на проектирование целых машин; важной вехой стала спецификация машины Тьюринга (теоретическая вычислительная модель, которая выполняет инструкции, представленные в виде последовательности нулей и единиц) в 1936 году британским математиком Аланом Тьюрингом и его доказательство вычислительной мощности модели. Еще одним прорывом стала концепция компьютера с хранимой в памяти программой, которую обычно приписывают американскому математику венгерского происхождения Джону фон Нейману. Это истоки области информатики, которая позже стала известна как архитектура и организация.

В 1950-х годах большинство пользователей компьютеров работали либо в научно-исследовательских лабораториях, либо в крупных корпорациях. Первая группа использовала компьютеры для выполнения сложных математических расчетов (например, траектории ракет), в то время как вторая группа использовала компьютеры для управления большими объемами корпоративных данных (например, платежных ведомостей и запасов). Обе группы быстро поняли, что писать программы на машинном языке нулей и единиц непрактично и ненадежно. Это открытие привело к разработке языка ассемблера в начале 1950-х годов, который позволяет программистам использовать символы для инструкций (например, ADD для сложения) и переменных (например, X). Другая программа, известная как ассемблер, переводила эти символические программы в эквивалентную двоичную программу, шаги которой компьютер мог выполнять или «выполнять».

Другие элементы системного программного обеспечения, известные как связывающие загрузчики, были разработаны для объединения фрагментов собранного кода и загрузки их в память компьютера, где они могли выполняться. Концепция связывания отдельных частей кода была важна, поскольку позволяла повторно использовать «библиотеки» программ для выполнения общих задач. Это был первый шаг в развитии области компьютерных наук, называемой разработкой программного обеспечения.

Позже, в 1950-х годах, язык ассемблера оказался настолько громоздким, что разработка языков высокого уровня (более близких к естественным языкам) стала поддерживать более простое и быстрое программирование. FORTRAN стал основным языком высокого уровня для научного программирования, а COBOL стал основным языком для бизнес-программирования. Эти языки несли с собой потребность в другом программном обеспечении, называемом компилятором, которое переводит программы на языке высокого уровня в машинный код. По мере того, как языки программирования становились все более мощными и абстрактными, создание компиляторов, создающих высококачественный машинный код и эффективных с точки зрения скорости выполнения и использования памяти, стало сложной задачей в области информатики. Разработка и реализация языков высокого уровня лежит в основе области компьютерных наук, называемой языками программирования.

Расширение использования компьютеров в начале 1960-х послужило толчком к разработке первых операционных систем, которые состояли из системно-резидентного программного обеспечения, которое автоматически обрабатывало ввод и вывод, а также выполняло программы, называемые «заданиями». Потребность в более совершенных вычислительных методах привела к возрождению интереса к численным методам и их анализу, и эта деятельность распространилась настолько широко, что стала известна как вычислительная наука.

В 1970-х и 80-х годах появились мощные компьютерные графические устройства, как для научного моделирования, так и для других видов визуальной деятельности. (Компьютерные графические устройства были представлены в начале 1950-х годов с отображением грубых изображений на бумажных графиках и экранах электронно-лучевых трубок [ЭЛТ].) Дорогое оборудование и ограниченная доступность программного обеспечения не позволяли этой области расти до начала 1980-х годов, когда компьютерная память, необходимая для растровой графики (в которой изображение состоит из маленьких прямоугольных пикселей), стала более доступной. Технология растровых изображений вместе с экранами с высоким разрешением и разработкой графических стандартов, которые делают программное обеспечение менее зависимым от машин, привели к взрывному росту этой области. Поддержка всех этих видов деятельности превратилась в область информатики, известную как графика и визуальные вычисления.

С этой областью тесно связано проектирование и анализ систем, которые напрямую взаимодействуют с пользователями, выполняющими различные вычислительные задачи.Эти системы получили широкое распространение в 1980-х и 90-х годах, когда линейное взаимодействие с пользователями было заменено графическими пользовательскими интерфейсами (GUI). Дизайн графического пользовательского интерфейса, который впервые был разработан Xerox, а затем был подхвачен Apple (Macintosh) и, наконец, Microsoft (Windows), важен, поскольку он представляет собой то, что люди видят и делают, взаимодействуя с вычислительным устройством. Разработка подходящих пользовательских интерфейсов для всех типов пользователей превратилась в область информатики, известную как взаимодействие человека с компьютером (HCI).

Xerox Alto был первым компьютером, в котором для управления системой использовались графические значки и мышь — первый графический интерфейс пользователя (GUI).

Область компьютерной архитектуры и организации также претерпела значительные изменения с тех пор, как в 1950-х годах были разработаны первые компьютеры с хранимой в памяти программой. В 1960-х годах появились так называемые системы с разделением времени, позволяющие нескольким пользователям одновременно запускать программы с разных терминалов, жестко подключенных к компьютеру. В 1970-е годы были разработаны первые глобальные компьютерные сети (WAN) и протоколы для передачи информации на высоких скоростях между компьютерами, разделенными большими расстояниями. По мере развития этих видов деятельности они объединились в область компьютерных наук, называемую сетями и коммуникациями. Крупным достижением в этой области стало развитие Интернета.

Идея о том, что инструкции и данные могут храниться в памяти компьютера, имела решающее значение для фундаментальных открытий, касающихся теоретического поведения алгоритмов. То есть такие вопросы, как «Что можно/нельзя вычислить?» были официально рассмотрены с использованием этих абстрактных идей. Эти открытия положили начало области информатики, известной как алгоритмы и сложность. Ключевой частью этой области является изучение и применение структур данных, подходящих для различных приложений. Структуры данных, наряду с разработкой оптимальных алгоритмов для вставки, удаления и поиска данных в таких структурах, являются серьезной проблемой для ученых-компьютерщиков, поскольку они так интенсивно используются в компьютерном программном обеспечении, особенно в компиляторах, операционных системах, файловых системах и т. д. и поисковые системы.

В 1960-х годах изобретение накопителей на магнитных дисках обеспечило быстрый доступ к данным, расположенным в произвольном месте на диске. Это изобретение привело не только к более продуманным файловым системам, но и к развитию баз данных и систем поиска информации, которые позже стали необходимы для хранения, поиска и передачи больших объемов и разнообразных данных через Интернет. Эта область информатики известна как управление информацией.

Еще одной долгосрочной целью исследований в области компьютерных наук является создание вычислительных машин и роботизированных устройств, способных выполнять задачи, которые обычно считаются требующими человеческого интеллекта. К таким задачам относятся движение, зрение, слух, речь, понимание естественного языка, мышление и даже проявление человеческих эмоций. Область информатики интеллектуальных систем, первоначально известная как искусственный интеллект (ИИ), на самом деле возникла еще до появления первых электронных компьютеров в 1940-х годах, хотя термин искусственный интеллект появился только в 1956 году.

Три достижения в области вычислительной техники в начале 21 века — мобильные вычисления, клиент-серверные вычисления и взлом компьютеров – способствовали появлению трех новых областей компьютерных наук: разработка на основе платформ, параллельные и распределенные вычисления, и обеспечение безопасности и информации. Платформенная разработка — это изучение особых потребностей мобильных устройств, их операционных систем и их приложений. Параллельные и распределенные вычисления касаются разработки архитектур и языков программирования, которые поддерживают разработку алгоритмов, компоненты которых могут работать одновременно и асинхронно (а не последовательно), чтобы лучше использовать время и пространство. Безопасность и обеспечение информации связаны с проектированием вычислительных систем и программного обеспечения, которые защищают целостность и безопасность данных, а также конфиденциальность лиц, для которых эти данные характерны.

Наконец, на протяжении всей истории компьютерных наук особое беспокойство вызывает уникальное общественное влияние, которое сопровождает исследования в области компьютерных наук и технологические достижения. Например, с появлением Интернета в 1980-х разработчикам программного обеспечения необходимо было решить важные вопросы, связанные с информационной безопасностью, личной конфиденциальностью и надежностью системы. Кроме того, вопрос о том, является ли программное обеспечение интеллектуальной собственностью, и связанный с ним вопрос «Кому оно принадлежит?» породила совершенно новую правовую область лицензирования и стандартов лицензирования, которые применялись к программному обеспечению и связанным с ним артефактам. Эти и другие проблемы составляют основу социальных и профессиональных проблем компьютерных наук, и они появляются почти во всех других областях, указанных выше.

Подводя итог, можно сказать, что дисциплина компьютерных наук превратилась в следующие 15 отдельных областей:

Инженерное образование и инновации были частью Калифорнийского университета с момента его основания 23 марта 1868 года. Беркли был первым из девяти университетов Калифорнийского университета. созданы кампусы и первоначально состояли из шести колледжей, в том числе механики, горного дела и гражданского строительства. В 1875 году президент Дэниел Койт Гилман назначил Фредерика Г. Гессе главой Колледжа механиков. В 1893 году Гессе выбрал Кларенса Кори и «Историю ранней электротехники в Калифорнийском университете в Беркли» Джона Торуса)

1900–1950-е годы: становление электротехники

В 1901 году Кори был назначен деканом Механического колледжа и на протяжении более чем одного поколения считался дальновидным и энергичным лидером в своей профессии. Кори Холл был назван в его честь. После его выхода на пенсию в 1930 году механический и инженерно-строительный колледжи были объединены в Инженерный колледж, в который вошли факультеты гражданского строительства и факультеты механики и электротехники. В 1942 году Инженерный и Горный колледжи объединились в единую административную единицу, Инженерный колледж, и единую академическую единицу, Инженерный факультет, с различными областями, такими как электротехника, известными как подразделения. В 1958 году отдел электротехники снова стал отделом электротехники.

1946–1958: Джозеф Томас Гир

В 1946 году Департамент ЭЭ нанял Джозефа Гира в качестве лектора на полставки. Когда в 1953 году его повысили до адъюнкт-профессора, он стал первым штатным чернокожим профессором во всей образовательной системе Калифорнийского университета и первым штатным чернокожим преподавателем в области STEM — и вторым в любой области — с самым высоким рейтингом, преимущественно белый университет в стране. Гир был мировым экспертом в области теплового и светового излучения, в частности измерения инфракрасного излучения, и многие в то время считали его «лучшим инструктором-лаборантом, когда-либо преподававшим электротехнику в Беркли». В 1958 году его повысили до профессора, а вскоре после этого перевели в Калифорнийский университет в Лос-Анджелесе. Узнайте больше о профессоре Гире.

Основные исследования в области электротехники (1950–1990-е годы)

В 1950-х и 1960-х годах исследования, проведенные преподавателями и аспирантами, способствовали ранней разработке микроволновых устройств, устройств на поверхностных акустических волнах, антенн и лазеров; сотовая и космическая связь, технология хранения данных на магнитных дисках и магнитно-резонансная томография (МРТ). Здесь был изобретен электрический прерыватель замыкания на землю, который теперь требуется для цепей кухни и ванной комнаты.

В эти годы профессора Дезоер и Заде заложили основы современной теории систем, за которыми последовал ряд фундаментальных работ по нелинейным и стохастическим системам под руководством профессоров Дезоера, Састри, Варайи, Вонга и Уолранда. В области связи основной вклад в теорию информации и кодирования внесли профессора Берлекамп, Сакрисон, Варайя и Томасиан. Фундаментальные характеристики и измерения замираний и многолучевости радиоканалов были проведены профессором Турином.

Первый вклад в автоматизированное проектирование микроэлектроники в 1970-х годах, наиболее известным из которых является программа SPICE, возглавляли профессора Д. О. Педерсон, Э. С. Кух и Р. А. Рорер. Выпускники основали ведущие в отрасли фирмы, в том числе Cadence и Synopsys, для коммерциализации инструментов проектирования для микроэлектроники. Команда Беркли под руководством проф. Р. В. Бродерсен, П. Р. Грей и Д. А. Ходжес изобрели интегральные МОП-схемы со смешанными сигналами, сочетающие прецизионное аналого-цифровое преобразование и фильтры с переключением C с цифровыми схемами высокой плотности.

В 1980-е годы темпы роста инноваций ускорились. Многие из приведенных выше результатов были расширены и нашли более широкое признание и признание. Голосовые кодеры-декодеры CMOS со смешанными сигналами, основанные на исследованиях Беркли, были включены в новые цифровые телефонные коммутационные системы от AT&T и Nortel. Системные исследования внесли фундаментальный и прикладной вклад в проектирование и управление энергетическими системами (профессора Ву и Варайя), транспортными системами (профессора Дезоер и Варайя) и робототехникой (профессора Фиринг и Састри). Профессора Мессершмитт и Эдвард Ли добились значительных успехов в моделировании и автоматизации проектирования гетерогенных и встроенных программных систем. Профессора Ричард Мюллер и Ричард Уайт инициировали новаторские исследования микроэлектромеханических систем, изготовленных с использованием расширений технологии микроэлектроники. Были продемонстрированы миниатюрные датчики и приводы серийного производства, такие как акселерометры, клапаны, массивы зеркал и двигатели. Фотолитография для микроэлектроники была доведена до гораздо более высокого уровня контроля и предсказуемости благодаря фундаментальным и прикладным исследованиям под руководством профессоров Энди Нойройтера и Уильяма Олдхэма.Их работа продемонстрировала полезные фотолитографические процессы при размерах, меньших длины волны света. Профессор Ченмин Ху и его коллеги добились важных успехов в фундаментальном понимании надежности полупроводниковых устройств и разработали универсальные модели BSIM для проектирования с субмикронными транзисторами. Наноразмерный МОП-транзистор FinFET был изобретен в сотрудничестве с профессорами Джеффом Бокором, Ченмином Ху и Цу-Джэ Кингом.

Многие руководители факультета послевоенного роста факультета ушли на пенсию в 1990-е годы. Новое поколение преподавателей стало лидерами в исследованиях и образовании. С добавлением новых преподавателей сильные программы по автоматизированному проектированию, микродатчикам и исполнительным механизмам продолжались на высоком уровне. Были разработаны новые направления исследований в области обработки сигналов, беспроводной связи, фотоники, микроробототехники, сенсорных сетей, биоинженерии, параллельных вычислений и квантовых вычислений.

1960–1970-е годы: развитие компьютерных наук в Беркли

В начале 1960-х годов исследования компьютерных систем привели к созданию одной из первых практических систем с разделением времени, которая была реализована на коммерческой основе в 1966 году как серия компьютеров SDS 940 (позже Xerox 940). Выпускники программ Беркли стали лидерами как в промышленности, так и в академических учреждениях на национальном и международном уровнях.

В 1968 году группа преподавателей электротехники перешла в Колледж литературы и науки для участия в создании факультета компьютерных наук. В результате слияния в 1973 году был образован факультет электротехники и компьютерных наук, что значительно расширило сферу образования и исследовательской деятельности. Посмотрите выступление профессора Лотфи Заде от 10 мая 2010 г. об этом знаменательном периоде в истории EECS.

Основные исследования в области компьютерных наук (1970–1990-е годы)

Влияние исследований Беркли на практическую часть информатики было значительным. В течение 1970-х годов теоретические исследования под руководством профессоров Р. А. Карпа и С. А. Кука установили фундаментальные концепции и пределы вычислительной сложности. Бывший студент Стив Возняк вместе со Стивом Джобсом основал Apple Computer. Преподаватели и студенты Беркли во главе с проф. Р. Фабри и Д. Феррари получили исходный код и права на раннюю операционную систему Bell Labs UNIX, а также добавили сетевые функции и поддержку виртуальной памяти для DEC VAX. Berkeley UNIX на VAX стал стандартом для исследователей DARPA того периода. Система баз данных INGRES, разработанная профессорами М. Стоунбрейкером и Э. Вонгом, установила возможность реализации реляционной модели данных на небольших компьютерах. Berkeley INGRES была первой полной реализацией системы управления реляционными базами данных.

В 1980-е годы темпы роста инноваций ускорились. Berkeley UNIX, включая набор интернет-протоколов TCP/IP, был публично выпущен как BSD 4.2. Работа над автоматизированным проектированием открыла новые горизонты с демонстрацией синтеза дизайна из логических спецификаций, создавая конструкции микросхем, которые «правильны по конструкции». Но также было много новых действий и достижений.

Разработка компьютеров с сокращенным набором инструкций Дэвидом Паттерсоном и Карло Секуином, проект Redundant Array of Inexpensive Disks под руководством Рэнди Каца и Дэвида Паттерсона и система реляционной базы данных INGRES под руководством Майка Стоунбрейкера, Ларри Роу и Юджина Вонга могут напрямую связаны с многомиллиардными отраслями. В области системного программного обеспечения влияние Berkeley Unix на миникомпьютеры, а затем и на рабочие станции, а через LINUX и на персональные компьютеры самоочевидно. Мы также не можем забыть роль выпускников Беркли в создании индустрии рабочих станций и персональных компьютеров — таких пионеров, как Батлер Лэмпсон (Xerox PARC), Билл Джой (Sun) и Стив Возняк (Apple). Численные вычисления не были бы надежными, если бы не принятие стандарта IEEE 754 с плавающей запятой, в значительной степени благодаря Уильяму Кахану, который получил премию Тьюринга в 1989 году за эту работу. В области языков программирования и разработки программного обеспечения исследования Беркли известны своим умением сочетать теорию и практику.

Калифорнийский университет в Беркли возглавил разработку теории вычислительной сложности благодаря фундаментальной работе Ричарда Карпа, который показал, что сложность известных алгоритмических задач, таких как поиск минимальной стоимости тура для коммивояжера, может быть связана с NP-полнотой— концепция, предложенная ранее бывшим профессором математики Беркли Стивеном А. Куком. Возникший в результате вопрос P vs. NP с тех пор был признан одной из десяти наиболее важных открытых проблем математики, наряду с такими классическими задачами, как гипотеза Римана.Ученые-компьютерщики Беркли продолжают лидировать в области вычислительной сложности, работая, например, над вероятностно проверяемыми доказательствами и трудностью аппроксимационных задач Санджив Арора и Мадху Судан в начале 1990-х годов, а также над квантовой теорией сложности Итана Бернстайна и Умеша Вазирани. несколько лет спустя. Две премии Тьюринга (Ричард Карп, Мануэль Блюм) и четыре доктора философии ACM. Награды за диссертации (Эрик Бах, Ноам Нисан, Мадху Судан и Санджив Арора) — это лишь некоторые из наград, полученных за исследования в области теоретической информатики в Беркли.

Усилия Беркли по искусственному интеллекту в значительной степени выросли в 1980–1990-х годах, когда проблемы с этой парадигмой стали очевидными, и исследователи Беркли сыграли важную роль в разработке нового, более вероятностного и ориентированного на обучение ИИ. Этот новый синтез объединил традиционный ИИ с теорией управления, распознаванием образов, нейронными сетями и теорией статистического обучения. Бестселлер Стюарта Рассела и Питера Норвига стал каноническим образцом этого синтеза, а исследования в Беркли в таких областях, как зрение, робототехника и обучение, еще больше приближают нас к мечте о действительно интеллектуальных машинах.

Мой новый коллега — он новичок в индустрии программного обеспечения — спросил меня, что я считаю наиболее важными моментами в истории вычислений. Имея несколько свободных часов воскресным днем ​​в дождливой Шотландии, я потратил некоторое время на составление списка. Вот мои лучшие 28 вех. Вроде должно быть четное 30. Что я пропустил?

Сопутствующий товар

Быстро приступайте к работе с помощью RMM, предназначенного для небольших поставщиков услуг и ИТ-отделов.

<р>1. Ноль

800 г. н.э. – Индия. Поскольку у вас не может быть компьютера без единиц и нулей, я думаю, что изобретение числа ноль имеет большое значение. Можно спорить, произошло ли это в Египте, Месопотамии или Индии. На мой взгляд, это была Индия, поскольку они были первыми, кто относился к нему как к числу и использовал десятичную точку с 595 года.

<р>2. Счетная машина Паскаль

1642 г. – Франция. Блез Паскаль строит счетную машину Паскаля — первый работающий калькулятор. Для меня это более важно, чем кости Нейпира, разработка таблиц логарифмов или некоторых механических устройств, таких как часы или квадрант, потому что устройство выполняет вычисления.

<р>3. Двоичная система счисления

1679 г. – Германия. Готфрид Лейбниц совершенствует двоичную систему счисления.

<р>4. Электричество

1751 – США. Компьютеры не работают без электричества, поэтому открытие Бена Франклина в 1751 году должно войти в этот список.

<р>5. Текстильный ткацкий станок

1801 г. – Франция. Жозеф Жаккард строит свой текстильный ткацкий станок, используя концепцию перфокарты, чтобы вплетать в ткань замысловатые узоры. Это основа программируемой машины.

<р>6. Аналитический движок

1833 г. – Великобритания. У Чарльза Бэббиджа есть идея аналитической машины, и хотя он ее не создавал, она закладывает основу для всех современных компьютеров. Августа Ада Байран, также известная как Ада Лавлейс, которая работала с ним, предложила использовать перфокарты, подобные ткацкому станку Жаккарда, чтобы сделать его программируемым.

<р>7. Булева алгебра

1854 г. – Великобритания. Джордж Буль создает булеву алгебру, закладывая основу теории информации. Именно здесь в математические формулы входят «и», «или» и «не». Позже это использовал Чарльз Сандерс Пирс, чтобы развить идею о том, что логика Буля применима к электрическим коммутационным схемам. Прошло 50 лет, прежде чем Бертран Рассел представил идею о том, что это основа всей математики, и еще 30 лет, прежде чем Клод Шеннон включил символическую логику «истина или ложь» в электрические схемы переключения.

<р>8. Термоэлектронная эмиссия

1863 г. – США. Томас Эдисон открывает термоэлектронную эмиссию, основу вакуумной лампы, которая, в свою очередь, становится строительным материалом для всей электронной промышленности. Когда в 1907 году изобрели вакуум, он позволил усилить радио- и телефонную связь.

<р>9. диск Нипкова

1925 г. – Великобритания. Можно утверждать, что телевидение берет свое начало от передачи факсов еще в 1843 году, но когда усиление сделало телевидение практичным, шотландский изобретатель Джон Логи Бэрд использовал диск Нипкова в своих прототипах видеосистем.

<р>10. Автоматическое программирование

1936 г. – Великобритания. Я посмотрел несколько документальных фильмов об Алане Тьюринге и посетил его выставку в музее здесь, в Великобритании. Довольно удивительный парень.Именно он заложил основу для разработки автоматического программирования, показав, что вычислительные машины могут моделировать более сложные задачи. Если бы не он, Z2, первый цифровой компьютер, который использовался для взлома немецкой Enigma, не был бы построен.

<р>11. Транзистор

1948 – США. Джон Бардин изобретает транзистор.

<р>12. Память на магнитных сердечниках

1949 – США. Ван изобретает память на магнитных сердечниках. Он не строит его, а продает патент IBM за 400 тысяч долларов, чтобы получить средства для создания своей компании. Его концепция оказалась непрактичной, пока Джей Форрестер из Массачусетского технологического института не усовершенствовал идею, поместив ее в матрицу, чтобы дать ей более широкое практическое применение. Позже это превратилось в компьютерную память, разработанную Фредом Уильямсом.

<р>13. КОБОЛ

1952 г. – США. Грейс Хоппер выдвинула идею использования компьютерных языков более высокого уровня и разработала концепцию компилятора, чтобы мы могли программировать словами, а не числами, и это привело к COBOL, первому языку, работающему на нескольких типах компьютеров.

<р>14. САБЛЯ

1953 – США. Авиакомпания разрабатывает полуавтоматическую среду бизнес-исследований (SABRE) с двумя подключенными мейнфреймами, что является началом компьютерных сетей. Этот проект действительно заимствовал некоторую логику из военного проекта SAGE. Я чувствую, что это основа сети, которая действительно взлетела после того, как Роберт Меткалф создал Ethernet для Xerox, но нынешний Интернет берет свое начало от ARPANET в 1969 году, которая была первой сетью, в которой был реализован TCP/IP и предком сегодняшнего Интернета.< /p> <р>15. Джон Ф. Кеннеди

1961 – США. Джон Ф. Кеннеди начинает свою речь «Я считаю, что мы должны полететь на Луну», в которой говорится о финансировании и исследованиях в области компьютерных наук.

<р>16. База данных

1963 – США. База данных имеет решающее значение для современной вычислительной среды. Первое упоминание о коммерческой базе данных, которое я могу найти, относится к выпуску General Electric IDS.

<р>17. IBM System/360

1964 – США. IBM выпускает IBM System/360, первую компьютерную систему с концепцией модульного совместимого компьютера общего назначения. Это приводит к расширению компьютерных систем и основанию рынка персональных компьютеров. Кто-то может возразить, что именно DEC PDP-11, разработанный в 1975 году, действительно привел на рынок ПК. Просто PDP-11 было проще программировать, у него были регистры общего назначения, прерывания, и его можно было изготовить с помощью полуквалифицированного труда.

<р>18. Взаимодействие человека и компьютера

1964 – США. Первые концепции мыши, графического пользовательского интерфейса и гипертекста созданы Дугом Энгельбартом. Лишь 10 лет спустя Xerox PARC разработала Alto, который позже был украден Microsoft и Apple.

<р>19. Интел

1964 – США. Гордон Мур и Роберт Нойс создают Intel для создания интегральной схемы. После создания компании им требуется всего год, чтобы предложить закон Мура.

<р>20. Первый патент на программу

1968 – США. Первый патент на программное обеспечение выдан Мартину Гетцу. Без этого индустрия программного обеспечения не смогла бы получить капитал для развития.

21. Атари

1972 – США. Рынок видеоигр можно проследить вплоть до 1948 года с игрой в шашки, созданной IBM. Но по-настоящему он взлетел, когда Нолан Бушнелл создал Atari и успех Pong (его вторая игра, как и первая, была слишком сложной для игры). Именно это привлекло молодое поколение и людей моего возраста к отрасли.

23. ВизиКальк

1979 – США. VisiCalc, первая электронная таблица создана. Это подготовило почву для Lotus 1-2-3 и Excel несколько лет спустя, но также подстегнуло потребность в ПК на рабочих местах.

24. Язык PostScript

1982 – США. Идея языка PostScript была придумана в 1976 году Джоном Уорноком. Он присоединился к компании Xerox PARC, которая разработала первый лазерный принтер и осознала потребность в стандартных средствах определения изображений страниц. В 1982 году он покинул Xerox и основал Adobe Systems.

25. Всемирная паутина

1989 – Великобритания. Всемирная паутина создана в физической лаборатории CERN сэром Тимом Бернерсом-Ли. Хотя газета была опубликована в 1989 году, она была создана в 1990 году, а продукт был выпущен в 1991 году.

26. Мозаика

1992 г. – США. Хотя Бернерс-Ли создал первый веб-браузер, я считаю, что Mosaic — действительно первый потребительский веб-браузер.

27. RISC-архитектура

1985 – Великобритания. ARM Holdings, у которой отличная бизнес-модель, — это компания, которая сделала возможным появление смартфонов. Для создания архитектуры RISC требовалось меньше транзисторов, что снижало затраты, мощность и тепловыделение. Я чувствую, что это последнее крупное изобретение компьютерного мира, которое мы знаем сегодня.

28. Арчи

1993 – Великобритания. Первым инструментом для поиска в Интернете был Archie, созданный в 1990 году Аланом Эмтаджем. Но JumpStation от Джонатона Флетчера использовала бота для поиска веб-страниц и создания их индекса.Он использовал веб-форму в качестве интерфейса для своей программы запросов и был первым механизмом, объединившим три основные функции веб-поисковика: сканирование; индексация; и поиск. Если бы не Поиск, технический бум, который мы все пережили, не имел бы такой скорости.

Будет интересно посмотреть на это через 20 лет и посмотреть, что будет добавлено в список.

Ян Торнтон-Трамп, CSA+, CD, CEH, CNDA, CPM, BA — технический директор Octopi Managed Services Inc. Ян — сертифицированный ITIL консультант по информационным технологиям (ИТ) с более чем 20-летним опытом работы в ИТ. безопасность и информационные технологии. Он любит и поддерживает твердую приверженность сообществу безопасности. С 1989 по 1992 год Ян служил в канадских вооруженных силах (CF), отделе военной разведки; в 2002 году он поступил на службу в резерв военной полиции CF и вышел на пенсию с должности сотрудника по связям с общественностью в 2013 году.

Читайте также: