Компьютер как средство управления экспериментом системы сбора и обработки данных

Обновлено: 25.06.2024

Большие данные (БД) с их потенциалом получения ценной информации для улучшения процесса принятия решений в последнее время вызывают значительный интерес как у ученых, так и у практиков. Аналитика больших данных (BDA) становится все более популярной практикой, которую многие организации внедряют с целью создания ценной информации из BD. Процесс аналитики, в том числе развертывание и использование инструментов BDA, рассматривается организациями как инструмент повышения операционной эффективности, хотя он имеет стратегический потенциал, обеспечивает новые потоки доходов и дает конкурентные преимущества перед конкурентами. Тем не менее, существуют различные типы аналитических приложений, которые следует учитывать. Поэтому, прежде чем поспешно использовать и покупать дорогостоящие инструменты BD, организациям необходимо сначала понять ландшафт BDA. Учитывая значительный характер BD и BDA, в этом документе представлен современный обзор, в котором представлен целостный взгляд на проблемы BD и методы BDA, теоретизированные/предлагаемые/используемые организациями, чтобы помочь другим понять эту ситуацию с целью принятия обоснованных инвестиционных решений. При этом проводится систематический анализ и обобщение существующих исследований, опубликованных в области BD и BDA. В частности, авторы пытаются ответить на следующие два основных вопроса: Q1 — Какие существуют типы проблем BD, которые теоретизируются/предлагаются/с которыми сталкиваются организации? и Q2 — Каковы различные типы теоретических/предлагаемых/используемых методов BDA для преодоления проблем BD?. Этот систематический обзор литературы (SLR) проводится путем наблюдения и понимания прошлых тенденций и существующих моделей/тем в области исследований BDA, оценки вклада, обобщения знаний, тем самым определяя ограничения, последствия и потенциальные направления дальнейших исследований для поддержки академического сообщества в изучение тем/моделей исследований. Так, для отслеживания реализации стратегий БР используется метод профилирования для анализа статей (опубликованных в англоязычных рецензируемых журналах в период с 1996 по 2015 г.), извлеченных из базы данных Scopus. Анализ, представленный в этой статье, выявил соответствующие исследования BD, которые внесли концептуальный и эмпирический вклад в расширение и накопление интеллектуального богатства BDA в области технологий и управления организационными ресурсами.

Ключевые слова

Рекомендуемые статьи

Ссылки на статьи

Показатели статей

Авторское право © 2022 Elsevier B.V. или ее лицензиары или участники. ScienceDirect ® является зарегистрированным товарным знаком Elsevier B.V.

PsyScope – это интегрированная среда для разработки и проведения психологических экспериментов на компьютерах Macintosh. Основная цель PsyScope — предоставить как студентам-психологам, так и подготовленным исследователям инструмент, позволяющий им разрабатывать эксперименты без необходимости программирования. Для достижения этой цели PsyScope полагается на интерактивную графическую среду, предоставляемую компьютерами Macintosh. Стандартные компоненты психологического эксперимента — группы, блоки, испытания и факторы — представлены графически, и эксперименты строятся путем работы с этими элементами в интерактивных окнах и диалогах. В этой статье мы описываем общую организацию программы, приводим пример того, как простой эксперимент может быть построен в графическом окружении, и обсуждаем некоторые ее технические особенности (такие как базовый язык сценариев, временные характеристики и т. д.). . PsyScope доступен для некоммерческих целей бесплатно и не поддерживается широким исследовательским сообществом. Предоставляется информация о том, как получить программу и ее документацию.

Скачать, чтобы прочитать полный текст статьи

Ссылки

Шнайдер, В. (1988). Micro Experimental Laboratory: интегрированная система для компьютеров, совместимых с IBM PC.Методы исследования поведения, инструменты и компьютеры, 20, 206–217.

Вон, Дж. (1992). Аспекты вычислений.Методы, инструменты и компьютеры исследования поведения, 24, 109–115.

Информация об авторе

Принадлежности

Кафедра психологии, Университет Карнеги-Меллона, 15213, Питтсбург, Пенсильвания

Джонатан Коэн, Брайан МакУинни, Мэтью Флэтт и Джефферсон Провост

Вы также можете искать этого автора в PubMed Google Scholar

Вы также можете искать этого автора в PubMed Google Scholar

Вы также можете искать этого автора в PubMed Google Scholar

Вы также можете искать этого автора в PubMed Google Scholar

Авторы для переписки

Дополнительная информация

PsyScope был задуман и разработан Джонатаном Коэном и Брайаном Маквинни, а реализован Мэтью Флэттом и Джефферсоном Прово.Вклад в его разработку также внесли Джей Гауди, Эрик Седлар, Дариус Клайнс, Эрик Селберг и Роберт Финдлер. Поддержка его разработки была оказана грантами NIMH (MH 00673 и MH 47073) первому автору, грантом NTH (HD 17790) второму автору и грантом FIPSE (P116B2) как первому, так и второму авторам. Кроме того, поддержку оказали лаборатории Элизабет Бейтс, Мэгги Брэк, Кэти Харрис, Марка Джонсона, Джея Макклелланда, Марка Зайденберга и Джонатана Вогана, которые вместе сформировали Консорциум разработки PsyScope.

Права и разрешения

Об этой статье

Процитировать эту статью

Дата выпуска: июнь 1993 г.

Поделиться этой статьей

Все, с кем вы поделитесь следующей ссылкой, смогут прочитать этот контент:

Цифровой анализ данных стал фундаментальной частью исследований во всех областях науки. Лаборатории используют программное обеспечение, которое может извлекать информацию из текста, изображений, форм и даже аудио и видео, делая выводы и создавая теории на их основе.

Однако даже самые передовые инструменты анализа не могут интерпретировать данные в необработанном виде. Информация должна быть записана в цифровом виде, чтобы решения ИИ могли ее обрабатывать.

Использование LIMS (системы управления лабораторной информацией) может помочь лабораториям создать структурированную, удобную для анализа систему данных.

Системы форм

При использовании бумажных блокнотов каждый член команды разрабатывает собственный метод записи данных. Это затрудняет создание последовательного потока знаний и получение более широкой картины командных исследований. Исследовательским лабораториям рекомендуется использовать согласованный формат таблиц для записи результатов экспериментов. Система управления лабораторной информацией или программное обеспечение ELN по выбору должны включать шаблоны, чтобы гарантировать, что все записи в блокноте строятся одинаково. Это не только упрощает перевод заметок в цифровой вид и их анализ, но и создает воспроизводимость — вы можете легко повторять эксперименты или вносить небольшие изменения в существующие протоколы. Стандартный формат записной книжки также помогает вам применять рабочие процедуры в лаборатории и снижать риски.

Вложенные файлы

Для сбора данных в лабораториях используются файлы разных типов. При работе с бумагой это может привести к беспорядку в блокноте, когда ученые пытаются распечатать и прикрепить к своим блокнотам изображения, таблицы и графики. Не говоря уже о данных в видео- или аудиоформате, с которыми бумага не справится. С помощью системы управления лабораторной информацией к экспериментам можно прикреплять файлы всех типов. Лучшие программы LIMS даже позволяют редактировать файлы непосредственно из LIMS, обновляя их одновременно для всех пользователей в лаборатории.

Оптическое распознавание символов (OCR) — это преобразование текста из изображений в цифровые файлы. Оптическое распознавание текста — это признанный метод, используемый во многих отраслях на протяжении десятилетий, и он не только по-прежнему актуален, но и становится все более продвинутым благодаря возможности интерпретировать рукописный текст или заполненные от руки формы. Это идеальное решение для ученых, которые делают рукописные заметки во время работы на стенде — вместо того, чтобы потом вручную печатать их на компьютере, они могут использовать приложение OCR для преобразования своих заметок в цифровую форму.

OCR по-прежнему требует просмотра цифрового результата и исправления ошибок, поскольку этот метод не является абсолютно точным. Однако многие OCR учатся, получая информацию о похожих шрифтах и ​​почерках, и их уровни точности улучшаются по мере использования.

В настоящее время некоторые системы LIMS включают функции оптического распознавания символов, которые позволяют сканировать изображения в текст и сохранять их в общей базе данных лабораторных записных книжек.

Сбор данных с помощью системы управления информацией Labguru Lab

Labguru — это комплексное программное обеспечение для ELN (электронный лабораторный журнал), LIMS (система управления лабораторной информацией) и программного обеспечения для лабораторной информатики. Используя Labguru, вы можете быстро перейти от бумажных блокнотов к цифровому ведению записей, а также анализировать данные и управлять своими запасами и оборудованием. Labguru включает в себя несколько основных функций, которые могут значительно улучшить стратегии сбора данных в вашей лаборатории. К ним относятся:

Элемент формы

Создавайте персонализированные шаблоны протоколов с текстовым и числовым вводом, флажками, раскрывающимися списками и многим другим. Используйте их, чтобы легко воспроизвести эксперименты и создать стандартизированную стратегию сбора данных.

Наборы данных

Функция "Наборы данных" идеально подходит для централизации информации и связывания элементов в системе. Наборы данных в Labguru — это наборы экспериментальных результатов, которые можно использовать для анализа. Таблицы наборов данных можно создавать из элементов формы, чтобы каждый раз, когда в новом эксперименте используется определенный протокол, к набору данных добавлялась дополнительная строка. Это гарантирует, что все результаты различных повторений одного и того же эксперимента будут записаны в одном месте.

Наборы данных также можно создавать из файлов (например, электронных таблиц Excel), загруженных в Labguru.

Простое редактирование

Приложение Labguru Easy Edit позволяет локально редактировать файлы, прикрепленные к экспериментам, непосредственно из Labguru. Файлы открываются на вашем компьютере в приложении Office Excel и автоматически сохраняются в Labguru после нажатия кнопки «Сохранить».

Лабханди — скоро в продаже

В ближайшее время компания Labguru представит новое мобильное приложение для оптического распознавания текста, которое поможет ученым на стенде. Вместо того, чтобы вручную вводить и копировать заметки и таблицы, сделанные во время экспериментов, просто отсканируйте их с помощью Labhandy и загрузите прямо в Labguru. После этого таблицу можно просмотреть в рамках соответствующего эксперимента.


Сбор данных — это процесс сбора и измерения информации об интересующих переменных в установленном систематическом порядке, который позволяет ответить на поставленные вопросы исследования, проверить гипотезы и оценить результаты. Компонент сбора данных в исследованиях является общим для всех областей обучения, включая физические и социальные науки, гуманитарные науки, бизнес и т. д. Хотя методы различаются в зависимости от дисциплины, акцент на обеспечение точного и честного сбора остается неизменным.

Важность обеспечения точного и надлежащего сбора данных

Независимо от области исследования или предпочтений в определении данных (количественных или качественных), сбор точных данных необходим для поддержания достоверности исследования. Как выбор подходящих инструментов сбора данных (существующих, модифицированных или вновь разработанных), так и четкие инструкции по их правильному использованию снижают вероятность возникновения ошибок.

Последствия неправильного сбора данных включают

  • неспособность точно ответить на вопросы исследования
  • невозможность повторить и подтвердить исследование
  • искаженные результаты, приводящие к напрасной трате ресурсов
  • вводить других исследователей в заблуждение, побуждая их проводить бесплодные исследования
  • компрометирующие решения для государственной политики
  • причинение вреда участникам-людям и животным

Несмотря на то, что степень воздействия ошибочного сбора данных может варьироваться в зависимости от дисциплины и характера расследования, существует вероятность причинения несоразмерного вреда, когда эти результаты исследования используются для поддержки рекомендаций государственной политики.

Проблемы, связанные с обеспечением целостности сбора данных:

Основной причиной сохранения целостности данных является поддержка обнаружения ошибок в процессе сбора данных, независимо от того, были ли они совершены преднамеренно (умышленная фальсификация) или нет (систематические или случайные ошибки).

Most, Craddick, Crawford, Redican, Rhodes, Rukenbrod и Laws (2003) описывают «обеспечение качества» и «контроль качества» как два подхода, которые могут сохранить целостность данных и обеспечить научную достоверность результатов исследования. Каждый подход применяется в разные моменты времени исследования (Whitney, Lind, Wahl, 1998):

  1. Обеспечение качества – действия, выполняемые до начала сбора данных
  2. .
  3. Контроль качества — действия, выполняемые во время и после сбора данных

Поскольку сбору данных предшествует обеспечение качества, его основное внимание уделяется «предотвращению» (т. е. предотвращению проблем со сбором данных). Профилактика является наиболее рентабельным мероприятием по обеспечению целостности сбора данных. Эта упреждающая мера лучше всего демонстрируется стандартизацией протокола, разработанного в виде всеобъемлющего и подробного руководства по процедурам сбора данных. Плохо написанные руководства повышают риск невозможности выявить проблемы и ошибки на ранних этапах исследования. Эти сбои можно продемонстрировать несколькими способами:

  • Неопределенность в отношении сроков, методов и лиц, ответственных за проверку данных.
  • Частичный список предметов, которые нужно собрать
  • Расплывчатое описание инструментов сбора данных вместо строгих пошаговых инструкций по проведению тестов.
  • Неспособность определить конкретное содержание и стратегии обучения или переподготовки сотрудников, ответственных за сбор данных.
  • Непонятные инструкции по использованию, настройке и калибровке оборудования для сбора данных (если применимо)
  • Не установлен механизм документирования изменений в процедурах, которые могут измениться в ходе расследования.

Важным компонентом обеспечения качества является разработка тщательного и подробного плана найма и обучения. При обучении подразумевается необходимость эффективного донесения ценности сбора точных данных до слушателей (Knatterud, Rockhold, George, Barton, Davis, Fairweather, Honohan, Mowery, O'Neill, 1998). Аспект обучения особенно важен для решения потенциальной проблемы персонала, который может непреднамеренно отклониться от первоначального протокола. Это явление, известное как «дрейф», должно быть устранено путем дополнительной подготовки, что должно быть указано в руководстве по процедурам.

Учитывая диапазон стратегий качественного исследования (неучастное/включенное наблюдение, интервью, архивирование, полевое исследование, этнография, контент-анализ, устная история, биография, ненавязчивое исследование), трудно сделать обобщенные утверждения о том, как следует установить протокол исследования для облегчения обеспечения качества. Конечно, у исследователей, проводящих неучастное/участное наблюдение, могут быть только самые общие исследовательские вопросы, чтобы направлять первоначальные исследовательские усилия. Поскольку исследователь является основным измерительным устройством в исследовании, во многих случаях другие инструменты для сбора данных практически отсутствуют. Действительно, может потребоваться разработка инструментов на месте для учета непредвиденных результатов.

Несмотря на то, что действия по контролю качества (обнаружение/мониторинг и действия) происходят во время и после сбора данных, детали должны быть тщательно задокументированы в руководстве по процедурам. Четко определенная коммуникационная структура является необходимой предпосылкой для создания систем мониторинга. Не должно быть какой-либо неопределенности в отношении потока информации между главными исследователями и сотрудниками после обнаружения ошибок при сборе данных. Плохо развитая коммуникационная структура способствует слабому мониторингу и ограничивает возможности обнаружения ошибок.

Обнаружение или мониторинг могут принимать форму прямого наблюдения персонала во время визитов на объект, телефонных конференций или регулярного и частого просмотра отчетов с данными для выявления несоответствий, экстремальных значений или недействительных кодов. Хотя выезды на места могут подходить не для всех дисциплин, отсутствие регулярной проверки записей, будь то количественных или количественных, затруднит следователям проверку того, что сбор данных осуществляется в соответствии с процедурами, установленными в руководстве. Кроме того, если в руководстве по процедурам четко не очерчена структура коммуникации, передача любых изменений в процедурах сотрудникам может быть скомпрометирована

Контроль качества также определяет требуемые ответы или «действия», необходимые для исправления неправильных методов сбора данных, а также для сведения к минимуму возникновения подобных ситуаций в будущем. Эти действия менее вероятны, если процедуры сбора данных описаны нечетко, а необходимые шаги для сведения к минимуму повторения не реализованы посредством обратной связи и обучения (Knatterud, et al, 1998)

Примеры проблем со сбором данных, требующих оперативных действий, включают:

  • ошибки в отдельных элементах данных
  • систематические ошибки
  • нарушение протокола
  • проблемы с отдельными сотрудниками или производительностью сайта
  • мошенничество или неправомерная научная деятельность

В социальных/поведенческих науках, где сбор первичных данных включает людей, исследователей учат включать один или несколько вторичных показателей, которые можно использовать для проверки качества информации, собираемой от человека. Например, исследователю, проводящему опрос, может быть интересно получить более полное представление о распространенности рискованного поведения среди молодых людей, а также о социальных условиях, повышающих вероятность и частоту такого рискованного поведения.

Чтобы проверить качество данных, респондентов могут опрашивать об одной и той же информации, но на разных этапах опроса и разными способами. Показатели «социальной желательности» также могут быть использованы для оценки честности ответов. Здесь необходимо отметить два момента: 1) перекрестные проверки в процессе сбора данных и 2) качество данных является проблемой как уровня наблюдения, так и проблемы полного набора данных. Таким образом, качество данных следует рассматривать для каждого отдельного измерения, для каждого отдельного наблюдения и для всего набора данных.

Каждая область исследования имеет предпочтительный набор инструментов для сбора данных. Отличительной чертой лабораторных наук является тщательное документирование лабораторного журнала, в то время как социальные науки, такие как социология и культурная антропология, могут предпочесть использование подробных полевых заметок. Независимо от дисциплины, полное документирование процесса сбора до, во время и после действия необходимо для сохранения целостности данных.

Ссылки:

Кнаттеруд. Г.Л., Рокхолд Ф.В., Джордж С.Л., Бартон Ф.Б., Дэвис С.Э., Фэйрвезер В.Р., Хонохан Т., Мауэри Р., О’Нил Р. (1998). Руководство по обеспечению качества в многоцентровых исследованиях: документ с изложением позиции. Контролируемые клинические испытания, 19:477–493.

Мост М.М., Крэддик С., Кроуфорд С., Редикан С., Родс Д., Рукенброд Ф., Лоус Р. (2003). Процессы обеспечения качества диеты в исследовании контролируемой диеты DASH-Sodium. Journal of the American Dietetic Association, 103(10): 1339–1346.

Несмотря на то, что были приложены все усилия для соблюдения правил стиля цитирования, могут быть некоторые расхождения. Если у вас есть какие-либо вопросы, обратитесь к соответствующему руководству по стилю или другим источникам.

Наши редакторы рассмотрят то, что вы отправили, и решат, нужно ли пересматривать статью.

ноутбук
< /p>

Информатика — это изучение компьютеров и вычислений, а также их теоретических и практических приложений. Информатика применяет принципы математики, инженерии и логики во множестве функций, включая формулирование алгоритмов, разработку программного и аппаратного обеспечения и искусственный интеллект.

Самые влиятельные ученые-компьютерщики – Алан Тьюринг, взломщик кодов времен Второй мировой войны, которого обычно называют "отцом современных вычислений"; Тим Бернерс-Ли, изобретатель Всемирной паутины; Джон Маккарти, изобретатель языка программирования LISP и пионер искусственного интеллекта; и Грейс Хоппер, офицер ВМС США и ключевая фигура в разработке первых компьютеров, таких как UNIVAC I, а также в разработке компилятора языка программирования.

Информатика применяется в широком спектре дисциплин, включая моделирование последствий изменения климата и вируса Эбола, создание произведений искусства и визуализацию с помощью графического рендеринга, а также моделирование человеческого интерфейса с помощью искусственного интеллекта и машинного обучения.< /p>

Разработка видеоигр основана на принципах информатики и программирования. Современный рендеринг графики в видеоиграх часто использует передовые методы, такие как трассировка лучей, для обеспечения реалистичных эффектов. Развитие дополненной реальности и виртуальной реальности также расширило спектр возможностей разработки видеоигр.

Многие университеты по всему миру предлагают программы обучения основам теории информатики и применениям компьютерного программирования. Кроме того, распространенность онлайн-ресурсов и курсов позволяет многим людям самостоятельно изучать более практические аспекты информатики (такие как программирование, разработка видеоигр и дизайн приложений).

информатика, изучение компьютеров и вычислений, включая их теоретические и алгоритмические основы, аппаратное и программное обеспечение, а также их использование для обработки информации. Дисциплина информатики включает изучение алгоритмов и структур данных, проектирование компьютеров и сетей, моделирование данных и информационных процессов, а также искусственный интеллект. Информатика черпает некоторые из своих основ из математики и инженерии и поэтому включает в себя методы из таких областей, как теория массового обслуживания, вероятность и статистика, а также проектирование электронных схем. Информатика также широко использует проверку гипотез и экспериментирование при концептуализации, проектировании, измерении и уточнении новых алгоритмов, информационных структур и компьютерных архитектур.

Информатика считается частью семейства пяти отдельных, но взаимосвязанных дисциплин: компьютерная инженерия, информатика, информационные системы, информационные технологии и разработка программного обеспечения. Это семейство стало известно под общим названием компьютерной дисциплины. Эти пять дисциплин взаимосвязаны в том смысле, что компьютеры являются объектом их изучения, но они разделены, поскольку каждая из них имеет свою собственную исследовательскую перспективу и учебную направленность. (С 1991 года Ассоциация вычислительной техники [ACM], Компьютерное общество IEEE [IEEE-CS] и Ассоциация информационных систем [AIS] сотрудничают в разработке и обновлении таксономии этих пяти взаимосвязанных дисциплин и руководств, которые образовательные учреждения использовать во всем мире для своих программ бакалавриата, магистратуры и исследовательских программ.)

Основные разделы информатики включают традиционное изучение компьютерной архитектуры, языков программирования и разработки программного обеспечения. Однако они также включают вычислительную науку (использование алгоритмических методов для моделирования научных данных), графику и визуализацию, взаимодействие человека и компьютера, базы данных и информационные системы, сети, а также социальные и профессиональные проблемы, которые являются уникальными для практики информатики. . Как может быть очевидно, некоторые из этих подполей пересекаются по своей деятельности с другими современными областями, такими как биоинформатика и вычислительная химия. Эти совпадения являются следствием склонности ученых-компьютерщиков признавать многочисленные междисциплинарные связи в своей области и действовать в соответствии с ними.

Развитие информатики

Информатика возникла как самостоятельная дисциплина в начале 1960-х годов, хотя электронный цифровой компьютер, являющийся объектом ее изучения, был изобретен на два десятилетия раньше. Корни информатики лежат в основном в смежных областях математики, электротехники, физики и информационных систем управления.

Математика является источником двух ключевых концепций разработки компьютеров — идеи о том, что вся информация может быть представлена ​​в виде последовательности нулей и единиц, и абстрактного понятия «хранимой программы». В двоичной системе счисления числа представляются последовательностью двоичных цифр 0 и 1 точно так же, как числа в знакомой нам десятичной системе представляются цифрами от 0 до 9. Относительная легкость, с которой два состояния (например, высокое и низкое напряжение) могут быть реализованы в электрических и электронных устройствах, что естественным образом привело к тому, что двоичная цифра или бит стала основной единицей хранения и передачи данных в компьютерной системе.

Электротехника обеспечивает основы проектирования цепей, а именно идею о том, что электрические импульсы, поступающие в цепь, можно комбинировать с помощью булевой алгебры для получения произвольных выходных сигналов. (Булева алгебра, разработанная в 19 веке, предоставила формализм для проектирования схемы с двоичными входными значениями нулей и единиц [ложь или истина, соответственно, в терминологии логики], чтобы получить любую желаемую комбинацию нулей и единиц на выходе.) Изобретение транзистора и миниатюризация схем, а также изобретение электронных, магнитных и оптических носителей для хранения и передачи информации стали результатом достижений электротехники и физики.

Информационные системы управления, первоначально называвшиеся системами обработки данных, предоставили ранние идеи, на основе которых развились различные концепции информатики, такие как сортировка, поиск, базы данных, поиск информации и графические пользовательские интерфейсы. В крупных корпорациях размещались компьютеры, на которых хранилась информация, необходимая для ведения бизнеса: начисление заработной платы, бухгалтерский учет, управление запасами, контроль производства, отгрузка и получение.

Теоретическая работа над вычислительностью, начавшаяся в 1930-х годах, обеспечила необходимое распространение этих достижений на проектирование целых машин; важной вехой стала спецификация машины Тьюринга (теоретическая вычислительная модель, которая выполняет инструкции, представленные в виде последовательности нулей и единиц) в 1936 году британским математиком Аланом Тьюрингом и его доказательство вычислительной мощности модели. Еще одним прорывом стала концепция компьютера с хранимой в памяти программой, которую обычно приписывают американскому математику венгерского происхождения Джону фон Нейману. Это истоки области информатики, которая позже стала известна как архитектура и организация.

Alan Turing

В 1950-х годах большинство пользователей компьютеров работали либо в научно-исследовательских лабораториях, либо в крупных корпорациях. Первая группа использовала компьютеры для выполнения сложных математических расчетов (например, траектории ракет), в то время как вторая группа использовала компьютеры для управления большими объемами корпоративных данных (например, платежных ведомостей и запасов). Обе группы быстро поняли, что писать программы на машинном языке нулей и единиц непрактично и ненадежно. Это открытие привело к разработке языка ассемблера в начале 1950-х годов, который позволяет программистам использовать символы для инструкций (например, ADD для сложения) и переменных (например, X). Другая программа, известная как ассемблер, переводила эти символические программы в эквивалентную двоичную программу, шаги которой компьютер мог выполнять или «выполнять».

Другие элементы системного программного обеспечения, известные как связывающие загрузчики, были разработаны для объединения фрагментов собранного кода и загрузки их в память компьютера, где они могли выполняться. Концепция связывания отдельных фрагментов кода была важна, поскольку позволяла повторно использовать «библиотеки» программ для выполнения общих задач. Это был первый шаг в развитии области компьютерных наук, называемой разработкой программного обеспечения.

Позже, в 1950-х годах, язык ассемблера оказался настолько громоздким, что разработка языков высокого уровня (более близких к естественным языкам) стала поддерживать более простое и быстрое программирование. FORTRAN стал основным языком высокого уровня для научного программирования, а COBOL стал основным языком для бизнес-программирования. Эти языки несли с собой потребность в другом программном обеспечении, называемом компилятором, которое переводит программы на языке высокого уровня в машинный код. По мере того, как языки программирования становились все более мощными и абстрактными, создание компиляторов, создающих высококачественный машинный код и эффективных с точки зрения скорости выполнения и использования памяти, стало сложной задачей в области информатики. Разработка и реализация языков высокого уровня лежит в основе области компьютерных наук, называемой языками программирования.

Расширение использования компьютеров в начале 1960-х послужило толчком к разработке первых операционных систем, которые состояли из системно-резидентного программного обеспечения, которое автоматически обрабатывало ввод и вывод, а также выполняло программы, называемые «заданиями». Потребность в более совершенных вычислительных методах привела к возрождению интереса к численным методам и их анализу, и эта деятельность распространилась настолько широко, что стала известна как вычислительная наука.

В 1970-х и 80-х годах появились мощные компьютерные графические устройства, как для научного моделирования, так и для других видов визуальной деятельности. (Компьютерные графические устройства были представлены в начале 1950-х годов с отображением грубых изображений на бумажных графиках и экранах электронно-лучевых трубок [ЭЛТ].) Дорогое оборудование и ограниченная доступность программного обеспечения не позволяли этой области расти до начала 1980-х годов, когда компьютерная память, необходимая для растровой графики (в которой изображение состоит из маленьких прямоугольных пикселей), стала более доступной. Технология растровых изображений вместе с экранами с высоким разрешением и разработкой графических стандартов, которые делают программное обеспечение менее зависимым от машин, привели к взрывному росту этой области. Поддержка всех этих видов деятельности превратилась в область информатики, известную как графика и визуальные вычисления.

С этой областью тесно связано проектирование и анализ систем, которые напрямую взаимодействуют с пользователями, выполняющими различные вычислительные задачи. Эти системы получили широкое распространение в 1980-х и 90-х годах, когда линейное взаимодействие с пользователями было заменено графическими пользовательскими интерфейсами (GUI). Дизайн графического пользовательского интерфейса, который впервые был разработан Xerox, а затем был подхвачен Apple (Macintosh) и, наконец, Microsoft (Windows), важен, поскольку он представляет собой то, что люди видят и делают, взаимодействуя с вычислительным устройством. Разработка подходящих пользовательских интерфейсов для всех типов пользователей превратилась в область информатики, известную как взаимодействие человека с компьютером (HCI).

Xerox Alto был первым компьютером, в котором для управления системой использовались графические значки и мышь — первый графический интерфейс пользователя (GUI).

Область компьютерной архитектуры и организации также претерпела значительные изменения с тех пор, как в 1950-х годах были разработаны первые компьютеры с хранимой в памяти программой. В 1960-х годах появились так называемые системы с разделением времени, позволяющие нескольким пользователям одновременно запускать программы с разных терминалов, жестко подключенных к компьютеру. В 1970-е годы были разработаны первые глобальные компьютерные сети (WAN) и протоколы для передачи информации на высоких скоростях между компьютерами, разделенными большими расстояниями. По мере развития этих видов деятельности они объединились в область компьютерных наук, называемую сетями и коммуникациями. Крупным достижением в этой области стало развитие Интернета.

Идея о том, что инструкции и данные могут храниться в памяти компьютера, имела решающее значение для фундаментальных открытий, касающихся теоретического поведения алгоритмов. То есть такие вопросы, как «Что можно/нельзя вычислить?» были официально рассмотрены с использованием этих абстрактных идей. Эти открытия положили начало области информатики, известной как алгоритмы и сложность. Ключевой частью этой области является изучение и применение структур данных, подходящих для различных приложений. Структуры данных, наряду с разработкой оптимальных алгоритмов для вставки, удаления и поиска данных в таких структурах, являются серьезной проблемой для ученых-компьютерщиков, поскольку они так интенсивно используются в компьютерном программном обеспечении, особенно в компиляторах, операционных системах, файловых системах и т. д. и поисковые системы.

В 1960-х годах изобретение накопителей на магнитных дисках обеспечило быстрый доступ к данным, расположенным в произвольном месте на диске. Это изобретение привело не только к более продуманным файловым системам, но и к развитию баз данных и систем поиска информации, которые позже стали необходимы для хранения, поиска и передачи больших объемов и разнообразных данных через Интернет. Эта область информатики известна как управление информацией.

Еще одной долгосрочной целью исследований в области компьютерных наук является создание вычислительных машин и роботизированных устройств, способных выполнять задачи, которые обычно считаются требующими человеческого интеллекта. К таким задачам относятся движение, зрение, слух, речь, понимание естественного языка, мышление и даже проявление человеческих эмоций. Область информатики интеллектуальных систем, первоначально известная как искусственный интеллект (ИИ), на самом деле возникла еще до появления первых электронных компьютеров в 1940-х годах, хотя термин искусственный интеллект появился только в 1956 году.

Три достижения в области вычислительной техники в начале 21 века — мобильные вычисления, клиент-серверные вычисления и взлом компьютеров – способствовали появлению трех новых областей компьютерных наук: разработка на основе платформ, параллельные и распределенные вычисления, и обеспечение безопасности и информации. Платформенная разработка — это изучение особых потребностей мобильных устройств, их операционных систем и их приложений. Параллельные и распределенные вычисления касаются разработки архитектур и языков программирования, которые поддерживают разработку алгоритмов, компоненты которых могут работать одновременно и асинхронно (а не последовательно), чтобы лучше использовать время и пространство. Безопасность и обеспечение информации связаны с проектированием вычислительных систем и программного обеспечения, которые защищают целостность и безопасность данных, а также конфиденциальность лиц, для которых эти данные характерны.

Наконец, особую озабоченность компьютерных наук на протяжении всей их истории вызывает уникальное общественное влияние, которое сопровождает исследования в области компьютерных наук и технологические достижения. Например, с появлением Интернета в 1980-х разработчикам программного обеспечения необходимо было решить важные вопросы, связанные с информационной безопасностью, личной конфиденциальностью и надежностью системы. Кроме того, вопрос о том, является ли программное обеспечение интеллектуальной собственностью, и связанный с ним вопрос «Кому оно принадлежит?» породила совершенно новую правовую область лицензирования и стандартов лицензирования, которые применялись к программному обеспечению и связанным с ним артефактам. Эти и другие проблемы составляют основу социальных и профессиональных проблем информатики, и они появляются почти во всех других областях, указанных выше.

Подводя итог, можно сказать, что дисциплина компьютерных наук превратилась в следующие 15 отдельных областей:

Читайте также: