В памяти компьютера хранится математическая формула, уравнение, по которому строится изображение
Обновлено: 21.11.2024
Гетти
Слово «алгоритм» можно услышать гораздо чаще, чем раньше. Одна из причин заключается в том, что ученые узнали, что компьютеры могут учиться самостоятельно, если дать им несколько простых инструкций. Вот собственно и все, что алгоритмы — это математические инструкции. В Википедии говорится, что алгоритм «представляет собой пошаговую процедуру вычислений».
Алгоритмы используются для расчетов, обработки данных и автоматизированных рассуждений». Осознаете вы это или нет, но алгоритмы становятся повсеместной частью нашей жизни. Некоторые эксперты видят в этой тенденции опасность. Например, Лео Хикман (@LeoHickman) пишет: «Откровения АНБ подчеркивают роль сложных алгоритмов в просеивании массивов данных. Но еще более удивительным является их широкое использование в нашей повседневной жизни. Так должны ли мы быть более осторожными с их силой?» [«Как алгоритмы правят миром», The Guardian, 1 июля 2013 г.] Было бы несколько преувеличением заявлять, что алгоритмы правят миром; но я согласен, что их использование становится все более распространенным. Это связано с тем, что компьютеры играют все более важную роль во многих аспектах нашей жизни. Мне нравится объяснение HowStuffWorks:
«Чтобы заставить компьютер что-то делать, нужно написать компьютерную программу. Чтобы написать компьютерную программу, вы должны шаг за шагом сказать компьютеру, что именно вы хотите, чтобы он сделал. Затем компьютер «выполняет» программу, механически выполняя каждый шаг, чтобы достичь конечной цели. Когда вы говорите компьютеру, что делать, вы также можете выбрать, как он будет это делать. Вот где на помощь приходят компьютерные алгоритмы. Алгоритм — это основная техника, используемая для выполнения работы».
Единственный момент, в котором объяснение неверно, заключается в том, что вы должны шаг за шагом говорить компьютеру, «что именно вы хотите, чтобы он делал». Вместо того, чтобы следовать только явно запрограммированным инструкциям, некоторые компьютерные алгоритмы предназначены для того, чтобы позволить компьютерам учиться самостоятельно (т. Е. Упрощать машинное обучение). Использование машинного обучения включает интеллектуальный анализ данных и распознавание образов. Клинт Финли сообщает: «Сегодня в Интернете правят алгоритмы. Эти математические расчеты определяют, что вы видите в своей ленте Facebook, какие фильмы рекомендует вам Netflix и какую рекламу вы видите в своем Gmail». [«Хотите создать свой собственный Google? Посетите App Store, чтобы найти алгоритмы», Wired, 11 августа 2014 г.].
Как математические уравнения, алгоритмы не являются ни хорошими, ни плохими. Однако ясно, что алгоритмами пользовались люди как с хорошими, так и с плохими намерениями. Доктор Панос Парпас, преподаватель кафедры вычислительной техники Имперского колледжа Лондона, сказал Хикману: «[Алгоритмы] теперь интегрированы в нашу жизнь. С одной стороны, они хороши тем, что освобождают наше время и выполняют рутинные процессы за нас. Вопросы, которые поднимаются об алгоритмах в настоящее время, касаются не алгоритмов как таковых, а того, как общество структурировано в отношении использования данных и конфиденциальности данных. Это также о том, как модели используются для предсказания будущего. В настоящее время существует неловкое сочетание данных и алгоритмов. По мере развития технологий будут возникать ошибки, но важно помнить, что это всего лишь инструмент. Мы не должны винить наши инструменты».
В алгоритмах нет ничего нового. Как отмечалось выше, это просто математические инструкции. Их использование в компьютерах восходит к одному из гигантов вычислительной теории Алану Тьюрингу. Еще в 1952 году Тьюринг «опубликовал набор уравнений, которые пытались объяснить узоры, которые мы наблюдаем в природе, от пятнистых полосок, украшающих спину зебры, до мутовчатых листьев на стебле растения или даже сложного скручивания и складывания, которое превращает клубок клеток в организм». [«Мощные уравнения, объясняющие закономерности, которые мы наблюдаем в природе», Кэт Арни (@harpistkat), Gizmodo, 13 августа 2014 г.] Тьюринг прославился во время Второй мировой войны, потому что помог взломать «Энигму». код. К сожалению, Тьюринг покончил с собой через два года после публикации своей книги. К счастью, влияние Тьюринга на мир не закончилось его самоубийством. Арни сообщает, что ученые до сих пор используют его алгоритмы для обнаружения закономерностей в природе. Арни заключает:
«В последние годы жизни Алана Тьюринга он увидел, как его математическая мечта — программируемый электронный компьютер — воплотилась в жизнь из темпераментного набора проводов и трубок. Тогда он был способен обрабатывать несколько чисел со скоростью улитки. Сегодня смартфон в вашем кармане напичкан вычислительными технологиями, которые поразили бы его воображение. Потребовалась почти еще одна жизнь, чтобы воплотить его биологическое видение в научную реальность, но оказалось, что это больше, чем аккуратное объяснение и несколько причудливых уравнений».
Хотя алгоритмы Тьюринга оказались полезными для определения того, как закономерности возникают в природе, другие корреляции, генерируемые алгоритмами, вызывают больше подозрений. Дебора Гейдж (@deborahgage) напоминает нам: «Корреляция… отличается от причинно-следственной связи». ["Big Data Uncovers Some Weird Correlations", The Wall Street Journal, 23 марта 2014 г.] Она добавляет: «Благодаря потоку данных, которые сейчас доступны, поиск неожиданных корреляций никогда не был таким простым». Гейдж сообщает, что одна «компания обнаружила, что сделки, заключенные в новолуние, в среднем на 43% больше, чем в полнолуние». Были обнаружены и другие странные корреляции: «Люди чаще отвечают на звонки, когда идет снег, холодно или очень влажно; когда солнечно или менее влажно, они больше отвечают на электронную почту. Предварительный анализ показывает, что они также покупают больше, когда солнечно, хотя некоторые люди покупают больше, когда пасмурно. …Онлайн-кредитор ZestFinance Inc. обнаружил, что люди, которые заполняют свои заявки на кредит, используя все заглавные буквы, чаще не выполняют свои обязательства, чем люди, которые используют все строчные буквы, и еще чаще, чем люди, которые правильно используют прописные и строчные буквы». Гейдж продолжает:
«Влияют ли на сделки купли-продажи циклы луны? Можно ли определить кредитный риск по тому, как человек печатает? Быстрое новое программное обеспечение для обработки данных в сочетании с потоком общедоступных и частных данных позволяет компаниям проверять эти и другие, казалось бы, надуманные теории, задавая вопросы, которые раньше мало кто додумался задать. Объединяя человеческий и искусственный интеллект, они стремятся раскрыть умные идеи и сделать прогнозы, которые могут дать компаниям преимущество на все более конкурентном рынке».
Главный исполнительный директор ZestFinance Дуглас Меррилл сказал Гейджу: «Ученым, работающим с данными, необходимо проверить, имеют ли смысл их выводы. Машинное обучение не заменит людей». Часть проблемы заключается в том, что большинство систем машинного обучения не сочетают рассуждения с вычислениями. Они просто выплевывают корреляции независимо от того, имеют они смысл или нет. Гейдж сообщает: «ZestFinance отвергла еще один вывод своего программного обеспечения о том, что более высокие люди лучше выплачивают кредиты, — гипотезу, которую г-н Меррилл называет глупой». Добавляя рассуждения в системы машинного обучения, корреляции и идеи становятся гораздо более полезными. «Часть проблемы, — пишет Кэтрин Хаваси (@havasi), генеральный директор и соучредитель Luminoso, — заключается в том, что, когда мы, люди, общаемся, мы полагаемся на обширный фон невысказанных предположений. … Мы предполагаем, что все, кого мы встречаем, разделяют это знание. Он формирует основу нашего взаимодействия и позволяет нам общаться быстро, эффективно и с глубоким смыслом». [«Who’s Doing Common Sense Reasoning And Why It Matters», TechCrunch, 9 августа 2014 г.] Она добавляет: «Сколько бы технологии ни были развиты сегодня, их главный недостаток, поскольку они становятся значительной частью повседневной жизни в обществе заключается в том, что оно не разделяет этих предположений».
«Рассуждения на основе здравого смысла — это область искусственного интеллекта, целью которой является помочь компьютерам более естественно понимать людей и взаимодействовать с ними, находя способы собирать эти предположения и обучать им компьютеры. Рассуждение на основе здравого смысла было наиболее успешным в области обработки естественного языка (НЛП), хотя заметная работа была проделана и в других областях. Эта область машинного обучения со своим странным названием начинает потихоньку проникать в различные приложения, начиная от понимания текста и заканчивая обработкой и пониманием того, что изображено на фотографии. Без здравого смысла будет сложно создавать адаптируемые и неконтролируемые системы НЛП во все более цифровом и мобильном мире. … НЛП — это то место, где превосходят рассуждения здравого смысла, и технология начинает находить свое применение в коммерческих продуктах. Хотя впереди еще долгий путь, рассуждения на основе здравого смысла будут продолжать быстро развиваться в ближайшие годы, а технология достаточно стабильна, чтобы ее можно было использовать в бизнесе сегодня. Он обладает значительными преимуществами по сравнению с существующими системами онтологий и правил или системами, основанными просто на машинном обучении».
Алгоритмы могут сделать системы умнее, но без добавления здравого смысла в уравнение они все равно могут давать довольно странные результаты.
Стивен Ф. ДеАнджелис — президент и главный исполнительный директор компании Enterra Solutions, занимающейся когнитивными вычислениями.
Компьютер с обманчивой простотой можно описать как «устройство, автоматически выполняющее рутинные вычисления». Такое определение обязано своей обманчивостью наивному и узкому взгляду на расчет как на строго математический процесс. На самом деле вычисления лежат в основе многих действий, которые обычно не считаются математическими. Ходьба по комнате, например, требует многих сложных, хотя и подсознательных вычислений.Компьютеры также доказали свою способность решать широкий спектр задач, от балансировки чековой книжки до даже — в виде систем управления для роботов — передвижения по комнате.
Поэтому, прежде чем можно было реализовать истинную мощь вычислений, необходимо было преодолеть наивный взгляд на вычисления. Изобретатели, трудившиеся над созданием компьютера, должны были понять, что вещь, которую они изобретали, была не просто машиной для обработки чисел, не просто калькулятором. Например, они должны были узнать, что нет необходимости изобретать новый компьютер для каждого нового расчета и что компьютер может быть разработан для решения множества задач, даже таких, которые еще не представлялись, когда компьютер был построен. Они также должны были научиться сообщать такому универсальному компьютеру, решающему задачи, какую задачу решать. Другими словами, им пришлось изобрести программирование.
Они должны были решить все головокружительные проблемы разработки такого устройства, реализации дизайна и фактического создания устройства. История решения этих задач есть история ЭВМ. Эта история описана в этом разделе, и даны ссылки на записи о многих упомянутых лицах и компаниях. Кроме того, см. статьи о компьютерных науках и суперкомпьютерах.
Ранняя история
Предшественники компьютеров
Счеты
Возможно, самым ранним известным счетным устройством являются счеты. Он восходит как минимум к 1100 г. до н.э. и используется до сих пор, особенно в Азии. Сейчас, как и тогда, он обычно представляет собой прямоугольную рамку с тонкими параллельными стержнями, нанизанными на бусины. Задолго до того, как для записи чисел была принята какая-либо систематическая позиционная запись, счеты присваивали каждому стержню разные единицы измерения или веса. Эта схема позволяла представлять широкий диапазон чисел всего несколькими бусинами и, вместе с изобретением нуля в Индии, возможно, вдохновила на изобретение индийско-арабской системы счисления. В любом случае с помощью счетов можно легко манипулировать для выполнения обычных арифметических операций — сложения, вычитания, умножения и деления, — которые полезны в коммерческих операциях и в бухгалтерии.
Счеты — это цифровое устройство; то есть он представляет значения дискретно. Бусинка находится либо в одном предопределенном положении, либо в другом, однозначно представляя, скажем, единицу или ноль.
Аналоговые калькуляторы: от логарифмов Непера к логарифмической линейке
Вычислительные устройства приняли другой оборот, когда Джон Нейпир, шотландский математик, опубликовал свое открытие логарифмов в 1614 году. Любой человек может подтвердить, что сложение двух десятизначных чисел намного проще, чем их умножение, а преобразование задача умножения в задачу сложения — это именно то, что позволяют логарифмы. Это упрощение возможно благодаря следующему логарифмическому свойству: логарифм произведения двух чисел равен сумме логарифмов чисел. К 1624 году были доступны таблицы с 14 значащими цифрами для логарифмов чисел от 1 до 20 000, и ученые быстро освоили новый инструмент, позволяющий экономить труд и выполнять утомительные астрономические расчеты.
Что наиболее важно для развития вычислительной техники, преобразование умножения в сложение значительно упростило возможности механизации. Вскоре появились аналоговые вычислительные устройства, основанные на логарифмах Непера, представляющих цифровые значения с аналогичными физическими длинами. В 1620 году Эдмунд Гюнтер, английский математик, придумавший термины косинус и котангенс, построил прибор для выполнения навигационных вычислений: шкалу Гюнтера, или, как ее называли мореплаватели, гантер. Около 1632 года английский священник и математик по имени Уильям Отред построил первую логарифмическую линейку, опираясь на идеи Непера. Эта первая логарифмическая линейка была круглой, но Отред также построил первую прямоугольную линейку в 1633 году. Аналоговые устройства Гюнтера и Отреда имели различные преимущества и недостатки по сравнению с цифровыми устройствами, такими как счеты. Важно то, что последствия этих дизайнерских решений проверялись в реальном мире.
Цифровые калькуляторы: от часов-счетчиков до арифмометра
В 1623 году немецкий астроном и математик Вильгельм Шикард построил первый калькулятор. Он описал это в письме своему другу, астроному Иоганну Кеплеру, а в 1624 году он снова написал, чтобы объяснить, что машина, которую он заказал для Кеплера, была, по-видимому, вместе с прототипом, уничтожена в огне. Он назвал это Счетными часами, что современные инженеры смогли воспроизвести по деталям в его письмах. Даже общее представление о часах было временно утрачено, когда Шикард и вся его семья погибли во время Тридцатилетней войны.
Репродукция счетных часов Вильгельма Шикарда. Устройство могло складывать и вычитать шестизначные числа (с звонком для семизначных переполнений) с помощью шести взаимосвязанных шестерен, каждая из которых поворачивалась на одну десятую оборота за каждый полный оборот шестерни вправо. Таким образом, 10 оборотов любой шестерни вызовут «перенос» одной цифры на следующей передаче и изменят соответствующий дисплей.
Но, возможно, Шикард не был истинным изобретателем калькулятора. Столетием ранее Леонардо да Винчи набросал планы калькулятора, которые были достаточно полными и правильными, чтобы современные инженеры могли построить на их основе калькулятор.
Первым калькулятором или арифмометром, произведенным в любом количестве и фактически использовавшимся, была Паскалина, или арифметическая машина, разработанная и построенная французским математиком и философом Блезом Паскалем между 1642 и 1644 годами. Она могла только складывать и вычитать, с числами, вводящимися, манипулируя его циферблатами. Паскаль изобрел машину для своего отца, сборщика налогов, так что это была и первая бизнес-машина (если не считать счеты). Он построил 50 из них в течение следующих 10 лет.
Арифметическая машина, или Паскалин, французский денежный (недесятичный) калькулятор, разработанный Блезом Паскалем c. 1642. Числа можно было складывать, поворачивая колеса (расположенные вдоль нижней части машины) по часовой стрелке, и вычитать, поворачивая колеса против часовой стрелки. Каждая цифра в ответе отображалась в отдельном окошке, видимом вверху фотографии.
В 1671 году немецкий математик и философ Готфрид Вильгельм фон Лейбниц сконструировал вычислительную машину, названную счетчиком шагов. (Впервые он был построен в 1673 году.) Счетчик шагов расширил идеи Паскаля и выполнял умножение путем многократного сложения и сдвига.
Репродукция картины Готфрида Вильгельма фон Лейбница «Счетчик шагов» с оригинала, хранящегося в музее Тринкса Брунсвига в Ганновере, Германия. Поворот рукоятки (слева) приводил во вращение несколько барабанов, каждый из которых вращал шестерню, соединенную с цифровым счетчиком.
Лейбниц был активным сторонником двоичной системы счисления. Двоичные числа идеально подходят для машин, поскольку для них требуется всего две цифры, которые можно легко представить включенным и выключенным состояниями переключателя. Когда компьютеры стали электронными, двоичная система стала особенно подходящей, потому что электрическая цепь либо включена, либо выключена. Это означало, что on может означать true, off — false, а поток current — напрямую представлять поток логики.
Лейбниц предвидел целесообразность использования двоичной системы в вычислительных машинах, но его машина не использовала ее. Вместо этого счетчик шагов представлял числа в десятичной форме в виде позиций на 10-позиционных циферблатах. Даже десятичное представление не было данностью: в 1668 году Сэмюэл Морланд изобрел арифмометр, предназначенный для британских денег, — явно недесятичная система.
Устройства Паскаля, Лейбница и Морланда были редкостью, но с промышленной революцией 18 века возникла широко распространенная потребность в эффективном выполнении повторяющихся операций. Если другие виды деятельности механизированы, то почему не расчет? В 1820 году Шарль Ксавье Тома де Кольмар из Франции успешно справился с этой задачей, когда построил свой арифмометр, первое коммерческое вычислительное устройство массового производства. Он мог выполнять сложение, вычитание, умножение и, при более сложном участии пользователя, деление. Основанный на технологии Лейбница, он был чрезвычайно популярен и продавался в течение 90 лет. В отличие от современного калькулятора размером с кредитную карту, арифмометр был достаточно большим, чтобы покрыть рабочий стол.
Жаккардовый станок
Калькуляторы, такие как арифмометр, оставались популярными и после 1820 года, и их потенциал для коммерческого использования был хорошо изучен. Многие другие механические устройства, построенные в 19 веке, также выполняли повторяющиеся функции более или менее автоматически, но лишь немногие из них имели какое-либо применение в вычислительной технике. Было одно важное исключение: жаккардовый ткацкий станок, изобретенный в 1804–1805 годах французским ткачом Жозефом-Мари Жаккаром.
Жаккардовый ткацкий станок был чудом промышленной революции. Текстильный ткацкий станок, его также можно назвать первым практическим устройством обработки информации. Ткацкий станок работал, вытягивая разноцветные нити в узоры с помощью набора стержней.Вставив перфорированную карту, оператор мог управлять движением стержней и тем самым изменять рисунок плетения. Кроме того, ткацкий станок был оборудован устройством для считывания карт, которое вставляло новую карту из предварительно перфорированной колоды на место каждый раз, когда бросали челнок, что позволяло автоматизировать сложные узоры ткачества.
Жаккардовый ткацкий станок, гравюра, 1874 г. В верхней части станка находится стопка перфокарт, которые будут подаваться в ткацкий станок для контроля рисунка ткачества. Этот метод автоматического выдачи машинных инструкций использовался компьютерами еще в 20 веке.
Необычным в этом устройстве было то, что оно перенесло процесс проектирования с этапа трудоемкого ткачества на этап штамповки карт. После того, как карты были перфорированы и собраны, дизайн был готов, и ткацкий станок автоматически реализовал дизайн. Таким образом, можно сказать, что жаккардовый ткацкий станок запрограммирован на различные узоры с помощью этих колод перфокарт.
Тем, кто хочет механизировать вычисления, ткацкий станок Жаккарда дал важные уроки: последовательность операций, выполняемых машиной, можно контролировать, чтобы заставить машину делать что-то совершенно другое; перфокарта могла использоваться как средство управления машиной; и, что наиболее важно, устройство можно было направить на выполнение различных задач, передавая ему инструкции на своего рода языке, т. е. делая машину программируемой.
Не будет большим преувеличением сказать, что на жаккардовом станке программирование было изобретено раньше, чем компьютер. Тесная связь между устройством и программой стала очевидной спустя 20 лет, когда Чарльз Бэббидж изобрел первый компьютер.
Несмотря на то, что были приложены все усилия для соблюдения правил стиля цитирования, могут быть некоторые расхождения. Если у вас есть какие-либо вопросы, обратитесь к соответствующему руководству по стилю или другим источникам.
Наши редакторы рассмотрят то, что вы отправили, и решат, нужно ли пересматривать статью.
цифровой компьютер, любое из класса устройств, способных решать задачи путем обработки информации в дискретной форме. Он работает с данными, включая величины, буквы и символы, которые выражены в двоичном коде, т. е. с использованием только двух цифр 0 и 1. Считая, сравнивая и манипулируя этими цифрами или их комбинациями в соответствии с набором инструкций, хранимых в своей памяти цифровая вычислительная машина может выполнять такие задачи, как управление производственными процессами и регулирование работы машин; анализировать и систематизировать огромные объемы бизнес-данных; и моделировать поведение динамических систем (например, глобальные погодные условия и химические реакции) в научных исследованиях.
Далее следует краткое описание цифровых компьютеров. Полное описание см. в см. информатике: основные компьютерные компоненты.
Как Интернет перемещает информацию между компьютерами? Какая операционная система сделана Microsoft? Войдите в этот тест и проверьте свои знания о компьютерах и операционных системах.
Функциональные элементы
Типичная цифровая компьютерная система имеет четыре основных функциональных элемента: (1) оборудование ввода-вывода, (2) основную память, (3) блок управления и (4) арифметико-логическое устройство. Любое из ряда устройств используется для ввода данных и программных инструкций в компьютер и для получения доступа к результатам операции обработки. Общие устройства ввода включают клавиатуры и оптические сканеры; устройства вывода включают принтеры и мониторы. Информация, полученная компьютером от своего блока ввода, сохраняется в основной памяти или, если не для непосредственного использования, во вспомогательном запоминающем устройстве. Блок управления выбирает и вызывает инструкции из памяти в соответствующей последовательности и передает соответствующие команды соответствующему блоку. Он также синхронизирует различные рабочие скорости устройств ввода и вывода со скоростью арифметико-логического устройства (ALU), чтобы обеспечить правильное перемещение данных по всей компьютерной системе. ALU выполняет арифметические и логические алгоритмы, выбранные для обработки входящих данных, с чрезвычайно высокой скоростью — во многих случаях за наносекунды (миллиардные доли секунды).Основная память, блок управления и АЛУ вместе составляют центральный процессор (ЦП) большинства цифровых компьютерных систем, а устройства ввода-вывода и вспомогательные запоминающие устройства составляют периферийное оборудование.
Разработка цифрового компьютера
Блез Паскаль из Франции и Готфрид Вильгельм Лейбниц из Германии изобрели механические цифровые вычислительные машины в 17 веке. Однако обычно считается, что английский изобретатель Чарльз Бэббидж создал первый автоматический цифровой компьютер. В 1830-х годах Бэббидж разработал свою так называемую аналитическую машину, механическое устройство, предназначенное для объединения основных арифметических операций с решениями, основанными на собственных вычислениях. Планы Бэббиджа воплотили в себе большинство фундаментальных элементов современного цифрового компьютера. Например, они призывали к последовательному управлению, т. е. программному управлению, которое включало ветвление, циклирование, а также арифметические и запоминающие устройства с автоматической распечаткой. Однако устройство Бэббиджа так и не было завершено и было забыто до тех пор, пока его труды не были заново открыты более века спустя.
Огромное значение в эволюции цифрового компьютера имели работы английского математика и логика Джорджа Буля. В различных эссе, написанных в середине 1800-х годов, Буль обсуждал аналогию между символами алгебры и символами логики, используемыми для представления логических форм и силлогизмов. Его формализм, работающий только с 0 и 1, стал основой того, что сейчас называется булевой алгеброй, на которой основаны теория и процедуры компьютерного переключения.
Джону В. Атанасову, американскому математику и физику, приписывают создание первого электронного цифрового компьютера, который он построил с 1939 по 1942 год с помощью своего аспиранта Клиффорда Э. Берри. Конрад Цузе, немецкий инженер, фактически изолированный от других разработок, в 1941 году завершил строительство первой действующей вычислительной машины с программным управлением (Z3). В 1944 году Ховард Эйкен и группа инженеров корпорации International Business Machines (IBM) завершили работу над Harvard Mark I – машиной, операции обработки данных которой контролировались главным образом электрическими реле (коммутационными устройствами).
Клиффорд Э. Берри и компьютер Атанасова-Берри, или ABC, c. 1942 г. ABC, возможно, был первым электронным цифровым компьютером.
С момента разработки Harvard Mark I цифровой компьютер развивался быстрыми темпами. Последовательность достижений в компьютерном оборудовании, главным образом в области логических схем, часто делится на поколения, при этом каждое поколение включает группу машин, использующих общую технологию.
В 1946 году Дж. Преспер Эккерт и Джон У. Мочли из Пенсильванского университета сконструировали ENIAC (аббревиатура от eэлектронный nмерический i). интегратор ии cкомпьютер), цифровая машина и первый электронный компьютер общего назначения. Его вычислительные возможности были заимствованы у машины Атанасова; оба компьютера включали электронные лампы вместо реле в качестве активных логических элементов, что привело к значительному увеличению скорости работы. Концепция компьютера с хранимой программой была представлена в середине 1940-х годов, а идея хранения кодов инструкций, а также данных в электрически изменяемой памяти была реализована в EDVAC (electronic, d создать vпеременный аавтоматический cкомпьютер).
Второе поколение компьютеров появилось в конце 1950-х годов, когда в продажу поступили цифровые машины, использующие транзисторы. Хотя этот тип полупроводникового устройства был изобретен в 1948 году, потребовалось более 10 лет опытно-конструкторских работ, чтобы сделать его жизнеспособной альтернативой электронной лампе. Небольшой размер транзистора, его большая надежность и относительно низкое энергопотребление значительно превосходили лампу. Его использование в компьютерных схемах позволило производить цифровые системы, которые были значительно эффективнее, меньше и быстрее, чем их предки первого поколения.
Транзистор был изобретен в 1947 году в Bell Laboratories Джоном Бардином, Уолтером Х. Браттейном и Уильямом Б. Шокли.
В конце 1960-х и 1970-х годах компьютерное оборудование стало еще более значительным.Первым было изготовление интегральной схемы, твердотельного устройства, содержащего сотни транзисторов, диодов и резисторов на крошечном кремниевом чипе. Эта микросхема сделала возможным производство мейнфреймов (крупномасштабных) компьютеров с более высокими рабочими скоростями, мощностью и надежностью при значительно меньших затратах. Другим типом компьютеров третьего поколения, которые были разработаны в результате микроэлектроники, были миникомпьютеры, машина значительно меньшего размера, чем стандартный мейнфрейм, но достаточно мощная, чтобы управлять приборами целой научной лаборатории.
Развитие крупномасштабной интеграции (БИС) позволило производителям оборудования разместить тысячи транзисторов и других связанных компонентов на одном кремниевом чипе размером с ноготь ребенка. Такая микросхема дала два устройства, которые произвели революцию в компьютерной технике. Первым из них был микропроцессор, представляющий собой интегральную схему, содержащую все арифметические, логические и управляющие схемы центрального процессора. Его производство привело к разработке микрокомпьютеров, систем размером не больше портативных телевизоров, но со значительной вычислительной мощностью. Другим важным устройством, появившимся из схем БИС, была полупроводниковая память. Это компактное запоминающее устройство, состоящее всего из нескольких микросхем, хорошо подходит для использования в миникомпьютерах и микрокомпьютерах. Кроме того, он находит применение во все большем количестве мейнфреймов, особенно в тех, которые предназначены для высокоскоростных приложений, из-за его высокой скорости доступа и большой емкости памяти. Такая компактная электроника привела в конце 1970-х годов к разработке персонального компьютера, цифрового компьютера, достаточно небольшого и недорогого, чтобы его могли использовать обычные потребители.
К началу 1980-х интегральные схемы продвинулись до очень крупномасштабной интеграции (СБИС). Этот дизайн и технология производства значительно увеличили плотность схем микропроцессора, памяти и вспомогательных микросхем, т. Е. Те, которые служат для сопряжения микропроцессоров с устройствами ввода-вывода. К 1990-м годам некоторые схемы СБИС содержали более 3 миллионов транзисторов на кремниевой микросхеме площадью менее 0,3 квадратных дюйма (2 квадратных см).
Цифровые компьютеры 1980-х и 90-х годов, использующие технологии БИС и СБИС, часто называют системами четвертого поколения. Многие микрокомпьютеры, произведенные в 1980-х годах, были оснащены одним чипом, на котором были интегрированы схемы процессора, памяти и функций интерфейса. (См. также суперкомпьютер.)
Использование персональных компьютеров выросло в 1980-х и 90-х годах. Распространение Всемирной паутины в 1990-х годах привело миллионы пользователей к Интернету, всемирной компьютерной сети, и к 2019 году около 4,5 миллиардов человек, более половины населения мира, имели доступ к Интернету. Компьютеры становились меньше и быстрее, и в начале 21 века они были широко распространены в смартфонах, а затем и в планшетных компьютерах.
Редакторы Британской энциклопедии Эта статья была недавно отредактирована и обновлена Эриком Грегерсеном.
В чем разница между растровыми и векторными изображениями?
Битовые (или растровые) изображения хранятся в виде набора крошечных точек, называемых пикселями. Каждый пиксель на самом деле представляет собой очень маленький квадратик, которому присваивается цвет, а затем он выстраивается в шаблон для формирования изображения. Когда вы увеличиваете растровое изображение, вы можете увидеть отдельные пиксели, составляющие это изображение. Растровую графику можно редактировать, удаляя или изменяя цвет отдельных пикселей с помощью такой программы, как Adobe Photoshop.
Пример растрового изображения из коллекции иллюстраций роботов FCIT на веб-сайте TIM.
В отличие от растровых изображений, векторные изображения не основаны на шаблонах пикселей, а вместо этого используют математические формулы для рисования линий и кривых, которые можно комбинировать для создания изображения из геометрических объектов, таких как круги и многоугольники. Векторные изображения редактируются путем изменения линий и кривых, составляющих изображение, с помощью такой программы, как Adobe Illustrator.
Векторные изображения имеют ряд важных преимуществ перед растровыми изображениями. Векторные изображения, как правило, меньше растровых изображений. Это связано с тем, что растровое изображение должно хранить информацию о цвете для каждого отдельного пикселя, формирующего изображение.Векторное изображение просто должно хранить математические формулы, составляющие изображение, которые занимают меньше места.
Пример векторной графики из коллекции математических иллюстраций FCIT на веб-сайте ClipArt ETC.
Векторные изображения также более масштабируемы, чем растровые изображения. Когда растровое изображение масштабируется, вы начинаете видеть отдельные пиксели, составляющие изображение. Наиболее заметно это по краям изображения. Есть способы сделать эти зубчатые края менее заметными, но это также часто приводит к размытию изображения. Когда векторное изображение масштабируется, изображение перерисовывается с использованием математической формулы, поэтому результирующее изображение будет таким же гладким, как и исходное.
Три самых популярных формата изображений, используемых в Интернете (PNG, JPEG и GIF), представляют собой растровые форматы. Формат масштабируемой векторной графики (SVG) занимает далекое четвертое место из-за плохой поддержки векторной графики в ранних браузерах. Однако сегодня все основные браузеры поддерживают формат SVG (масштабируемая векторная графика).
Растровые форматы лучше всего подходят для изображений, которые должны иметь широкий диапазон цветовых градаций, таких как большинство фотографий. С другой стороны, векторные форматы лучше подходят для изображений, состоящих из нескольких областей сплошного цвета. Примеры изображений, которые хорошо подходят для векторного формата, включают логотипы и шрифт.
Читайте также: