Какие ваши жизненные задачи можно решить с помощью компьютерного моделирования, напишите алгоритм

Обновлено: 01.07.2024

Искусственный интеллект (ИИ) позволяет машинам учиться на собственном опыте, приспосабливаться к новым данным и выполнять задачи, подобные человеческим. Большинство примеров ИИ, о которых вы слышали сегодня — от компьютеров, играющих в шахматы, до беспилотных автомобилей — в значительной степени зависят от глубокого обучения и обработки естественного языка. С помощью этих технологий компьютеры можно научить выполнять определенные задачи, обрабатывая большие объемы данных и распознавая закономерности в данных.

История искусственного интеллекта

Термин "искусственный интеллект" был придуман в 1956 году, но сегодня искусственный интеллект стал более популярным благодаря увеличению объемов данных, усовершенствованным алгоритмам, а также усовершенствованиям вычислительной мощности и хранилища.

Ранние исследования ИИ в 1950-х годах касались таких тем, как решение задач и символьные методы. В 1960-х годах министерство обороны США заинтересовалось этим типом работы и начало обучать компьютеры имитировать основные человеческие рассуждения. Например, Агентство перспективных оборонных исследовательских проектов (DARPA) завершило проекты по картированию улиц в 1970-х годах. А DARPA выпустила интеллектуальных персональных помощников в 2003 году, задолго до того, как Siri, Alexa или Cortana стали общеизвестными именами.

Эта ранняя работа проложила путь к автоматизации и формальным рассуждениям, которые мы видим сегодня в компьютерах, включая системы поддержки принятия решений и интеллектуальные поисковые системы, которые могут быть разработаны для дополнения и расширения человеческих способностей.

Хотя в голливудских фильмах и научно-фантастических романах искусственный интеллект изображается как человекоподобные роботы, захватившие мир, нынешняя эволюция технологий искусственного интеллекта не так уж страшна и умна. Вместо этого ИИ развился, чтобы обеспечить множество конкретных преимуществ в каждой отрасли. Продолжайте читать, чтобы узнать о современных примерах использования искусственного интеллекта в здравоохранении, розничной торговле и т. д.

Ранняя работа с нейронными сетями вызывает интерес к «мыслящим машинам».

Машинное обучение становится популярным.

Прорывы в области глубокого обучения стимулируют бум ИИ.

Тенденции искусственного интеллекта, за которыми стоит следить

Быстро посмотрите это видео, чтобы услышать, как эксперты по ИИ и профессионалы в области обработки данных оценивают тенденции ИИ в следующем десятилетии.

Какова роль этики в будущем ИИ? Насколько важны большие данные? Почему знание предметной области имеет решающее значение для успеха ИИ?

Самое главное: «Важно то, у кого есть данные. Вот кто станет королем», – говорит Харпер Рид, пионер технологий.

Почему искусственный интеллект важен?

ИИ автоматизирует повторяющееся обучение и поиск данных. Вместо автоматизации ручных задач ИИ выполняет частые, объемные, компьютеризированные задачи. И делает это надежно и без усталости. Конечно, люди по-прежнему необходимы для настройки системы и постановки правильных вопросов.

Искусственный интеллект расширяет возможности существующих продуктов. Многие продукты, которые вы уже используете, будут улучшены за счет возможностей искусственного интеллекта, подобно тому, как Siri была добавлена ​​в качестве функции в новое поколение продуктов Apple. Автоматизация, диалоговые платформы, боты и умные машины могут быть объединены с большими объемами данных для улучшения многих технологий. Обновления дома и на рабочем месте: от систем безопасности и умных камер до анализа инвестиций.

Искусственный интеллект адаптируется с помощью прогрессивных алгоритмов обучения, позволяя данным выполнять программирование. ИИ находит структуру и закономерности в данных, чтобы алгоритмы могли приобретать навыки. Точно так же, как алгоритм может научить себя играть в шахматы, он может сам научить себя, какой онлайн-продукт рекомендовать следующим. И модели адаптируются при получении новых данных.

ИИ анализирует больше и глубже данных, используя нейронные сети, которые имеют много скрытых слоев. Раньше создание системы обнаружения мошенничества с пятью скрытыми слоями было невозможным. Все изменилось благодаря невероятной мощности компьютеров и большим данным. Вам нужно много данных для обучения моделей глубокого обучения, потому что они учатся непосредственно на данных.

Искусственный интеллект достигает невероятной точности благодаря глубоким нейронным сетям. Например, ваше взаимодействие с Alexa и Google основано на глубоком обучении. И эти продукты становятся все более точными, чем больше вы их используете. В области медицины методы искусственного интеллекта, основанные на глубоком обучении и распознавании объектов, теперь можно использовать для более точного выявления рака на медицинских изображениях.

ИИ максимально эффективно использует данные. Когда алгоритмы самообучаемые, сами данные являются активом. Ответы в данных. Вам просто нужно применить ИИ, чтобы найти их. Поскольку роль данных сейчас важнее, чем когда-либо, они могут создать конкурентное преимущество. Если у вас есть лучшие данные в конкурентной отрасли, даже если все применяют одинаковые методы, лучшие данные победят.

Несмотря на то, что были приложены все усилия для соблюдения правил стиля цитирования, могут быть некоторые расхождения. Если у вас есть какие-либо вопросы, обратитесь к соответствующему руководству по стилю или другим источникам.

Наши редакторы рассмотрят то, что вы отправили, и решат, нужно ли пересматривать статью.

ноутбук
< /p>

Информатика — это изучение компьютеров и вычислений, а также их теоретических и практических приложений. Информатика применяет принципы математики, инженерии и логики во множестве функций, включая формулирование алгоритмов, разработку программного и аппаратного обеспечения и искусственный интеллект.

Самые влиятельные ученые-компьютерщики – Алан Тьюринг, взломщик кодов времен Второй мировой войны, которого обычно называют "отцом современных вычислений"; Тим Бернерс-Ли, изобретатель Всемирной паутины; Джон Маккарти, изобретатель языка программирования LISP и пионер искусственного интеллекта; и Грейс Хоппер, офицер ВМС США и ключевая фигура в разработке первых компьютеров, таких как UNIVAC I, а также в разработке компилятора языка программирования.

Информатика применяется в широком спектре дисциплин, включая моделирование последствий изменения климата и вируса Эбола, создание произведений искусства и визуализацию с помощью графического рендеринга, а также моделирование человеческого интерфейса с помощью искусственного интеллекта и машинного обучения.< /p>

Разработка видеоигр основана на принципах информатики и программирования. Современный рендеринг графики в видеоиграх часто использует передовые методы, такие как трассировка лучей, для обеспечения реалистичных эффектов. Развитие дополненной реальности и виртуальной реальности также расширило спектр возможностей разработки видеоигр.

Многие университеты по всему миру предлагают программы обучения основам теории информатики и прикладного программирования. Кроме того, распространенность онлайн-ресурсов и курсов позволяет многим людям самостоятельно изучать более практические аспекты компьютерных наук (такие как программирование, разработка видеоигр и дизайн приложений).

информатика, изучение компьютеров и вычислений, включая их теоретические и алгоритмические основы, аппаратное и программное обеспечение, а также их использование для обработки информации. Дисциплина информатики включает изучение алгоритмов и структур данных, проектирование компьютеров и сетей, моделирование данных и информационных процессов, а также искусственный интеллект. Информатика черпает некоторые из своих основ из математики и инженерии и поэтому включает в себя методы из таких областей, как теория массового обслуживания, вероятность и статистика, а также проектирование электронных схем. Информатика также широко использует проверку гипотез и экспериментирование при концептуализации, проектировании, измерении и уточнении новых алгоритмов, информационных структур и компьютерных архитектур.

Информатика считается частью семейства из пяти отдельных, но взаимосвязанных дисциплин: компьютерная инженерия, информатика, информационные системы, информационные технологии и разработка программного обеспечения. Это семейство стало известно под общим названием компьютерной дисциплины. Эти пять дисциплин взаимосвязаны в том смысле, что вычислительная техника является их объектом изучения, но они разделены, поскольку каждая из них имеет свою собственную исследовательскую перспективу и учебную направленность. (С 1991 года Ассоциация вычислительной техники [ACM], Компьютерное общество IEEE [IEEE-CS] и Ассоциация информационных систем [AIS] сотрудничают в разработке и обновлении таксономии этих пяти взаимосвязанных дисциплин и руководств, которые образовательные учреждения использовать во всем мире для своих программ бакалавриата, магистратуры и исследовательских программ.)

Основные разделы информатики включают традиционное изучение компьютерной архитектуры, языков программирования и разработки программного обеспечения. Однако они также включают вычислительную науку (использование алгоритмических методов для моделирования научных данных), графику и визуализацию, взаимодействие человека с компьютером, базы данных и информационные системы, сети, а также социальные и профессиональные проблемы, которые являются уникальными для практики информатики. . Как может быть очевидно, некоторые из этих подполей пересекаются по своей деятельности с другими современными областями, такими как биоинформатика и вычислительная химия. Эти совпадения являются следствием склонности ученых-компьютерщиков признавать многочисленные междисциплинарные связи в своей области и действовать в соответствии с ними.

Развитие информатики

Информатика возникла как самостоятельная дисциплина в начале 1960-х годов, хотя электронный цифровой компьютер, являющийся объектом ее изучения, был изобретен на два десятилетия раньше. Корни информатики лежат в основном в смежных областях математики, электротехники, физики и информационных систем управления.

Математика является источником двух ключевых концепций разработки компьютеров — идеи о том, что вся информация может быть представлена ​​в виде последовательности нулей и единиц, и абстрактного понятия «хранимой программы». В двоичной системе счисления числа представляются последовательностью двоичных цифр 0 и 1 точно так же, как числа в знакомой нам десятичной системе представляются цифрами от 0 до 9. Относительная легкость, с которой два состояния (например, высокое и низкое напряжение) могут быть реализованы в электрических и электронных устройствах, что естественным образом привело к тому, что двоичная цифра или бит стала основной единицей хранения и передачи данных в компьютерной системе.

Электротехника дает основы проектирования цепей, а именно идею о том, что электрические импульсы, поступающие в цепь, можно комбинировать с помощью булевой алгебры для получения произвольных выходных сигналов. (Булева алгебра, разработанная в 19 веке, предоставила формализм для проектирования схемы с двоичными входными значениями нулей и единиц [ложь или истина, соответственно, в терминологии логики], чтобы получить любую желаемую комбинацию нулей и единиц на выходе.) Изобретение транзистора и миниатюризация схем, а также изобретение электронных, магнитных и оптических носителей для хранения и передачи информации стали результатом достижений электротехники и физики.

Информационные системы управления, первоначально называвшиеся системами обработки данных, предоставили ранние идеи, на основе которых развились различные концепции информатики, такие как сортировка, поиск, базы данных, поиск информации и графические пользовательские интерфейсы. В крупных корпорациях размещались компьютеры, на которых хранилась информация, необходимая для ведения бизнеса — расчет заработной платы, бухгалтерский учет, управление запасами, контроль производства, отгрузка и получение.

Теоретическая работа над вычислительностью, начавшаяся в 1930-х годах, обеспечила необходимое распространение этих достижений на проектирование целых машин; важной вехой стала спецификация машины Тьюринга (теоретическая вычислительная модель, которая выполняет инструкции, представленные в виде последовательности нулей и единиц) в 1936 году британским математиком Аланом Тьюрингом и его доказательство вычислительной мощности модели. Еще одним прорывом стала концепция компьютера с хранимой в памяти программой, которую обычно приписывают американскому математику венгерского происхождения Джону фон Нейману. Это истоки области информатики, которая позже стала известна как архитектура и организация.

Alan Turing

В 1950-х годах большинство пользователей компьютеров работали либо в научно-исследовательских лабораториях, либо в крупных корпорациях. Первая группа использовала компьютеры для выполнения сложных математических расчетов (например, траектории ракет), в то время как вторая группа использовала компьютеры для управления большими объемами корпоративных данных (например, платежных ведомостей и запасов). Обе группы быстро поняли, что писать программы на машинном языке нулей и единиц непрактично и ненадежно. Это открытие привело к разработке языка ассемблера в начале 1950-х годов, который позволяет программистам использовать символы для инструкций (например, ADD для сложения) и переменных (например, X). Другая программа, известная как ассемблер, переводила эти символические программы в эквивалентную двоичную программу, шаги которой компьютер мог выполнять или «выполнять».

Другие элементы системного программного обеспечения, известные как связывающие загрузчики, были разработаны для объединения фрагментов собранного кода и загрузки их в память компьютера, где они могли выполняться. Концепция связывания отдельных частей кода была важна, поскольку позволяла повторно использовать «библиотеки» программ для выполнения общих задач. Это был первый шаг в развитии области компьютерных наук, называемой разработкой программного обеспечения.

Позже, в 1950-х годах, язык ассемблера оказался настолько громоздким, что разработка языков высокого уровня (более близких к естественным языкам) стала поддерживать более простое и быстрое программирование. FORTRAN стал основным языком высокого уровня для научного программирования, а COBOL стал основным языком для бизнес-программирования. Эти языки несли с собой потребность в другом программном обеспечении, называемом компилятором, которое переводит программы на языке высокого уровня в машинный код. По мере того, как языки программирования становились все более мощными и абстрактными, создание компиляторов, создающих высококачественный машинный код и эффективных с точки зрения скорости выполнения и использования памяти, стало сложной задачей в области информатики. Разработка и реализация языков высокого уровня лежит в основе области компьютерных наук, называемой языками программирования.

Расширение использования компьютеров в начале 1960-х послужило толчком к разработке первых операционных систем, которые состояли из системно-резидентного программного обеспечения, которое автоматически обрабатывало ввод и вывод, а также выполняло программы, называемые «заданиями». Потребность в более совершенных вычислительных методах привела к возрождению интереса к численным методам и их анализу, и эта деятельность распространилась настолько широко, что стала известна как вычислительная наука.

В 1970-х и 80-х годах появились мощные компьютерные графические устройства, как для научного моделирования, так и для других видов визуальной деятельности. (Компьютерные графические устройства были представлены в начале 1950-х годов с отображением грубых изображений на бумажных графиках и экранах электронно-лучевых трубок [ЭЛТ].) Дорогое оборудование и ограниченная доступность программного обеспечения не позволяли этой области расти до начала 1980-х годов, когда компьютерная память, необходимая для растровой графики (в которой изображение состоит из маленьких прямоугольных пикселей), стала более доступной. Технология растровых изображений вместе с экранами с высоким разрешением и разработкой графических стандартов, которые делают программное обеспечение менее зависимым от машин, привели к взрывному росту этой области. Поддержка всех этих видов деятельности превратилась в область информатики, известную как графика и визуальные вычисления.

С этой областью тесно связано проектирование и анализ систем, которые напрямую взаимодействуют с пользователями, выполняющими различные вычислительные задачи. Эти системы получили широкое распространение в 1980-х и 90-х годах, когда линейное взаимодействие с пользователями было заменено графическими пользовательскими интерфейсами (GUI). Дизайн графического пользовательского интерфейса, который впервые был разработан Xerox, а затем был подхвачен Apple (Macintosh) и, наконец, Microsoft (Windows), важен, поскольку он представляет собой то, что люди видят и делают, взаимодействуя с вычислительным устройством. Разработка подходящих пользовательских интерфейсов для всех типов пользователей превратилась в область информатики, известную как взаимодействие человека с компьютером (HCI).

Xerox Alto был первым компьютером, в котором для управления системой использовались графические значки и мышь — первый графический интерфейс пользователя (GUI).

Область компьютерной архитектуры и организации также претерпела значительные изменения с тех пор, как в 1950-х годах были разработаны первые компьютеры с хранимой в памяти программой. В 1960-х годах появились так называемые системы с разделением времени, позволяющие нескольким пользователям одновременно запускать программы с разных терминалов, жестко подключенных к компьютеру. В 1970-е годы были разработаны первые глобальные компьютерные сети (WAN) и протоколы для передачи информации на высоких скоростях между компьютерами, разделенными большими расстояниями. По мере развития этих видов деятельности они объединились в область компьютерных наук, называемую сетями и коммуникациями. Крупным достижением в этой области стало развитие Интернета.

Идея о том, что инструкции и данные могут храниться в памяти компьютера, имела решающее значение для фундаментальных открытий, касающихся теоретического поведения алгоритмов. То есть такие вопросы, как «Что можно/нельзя вычислить?» были официально рассмотрены с использованием этих абстрактных идей. Эти открытия положили начало области информатики, известной как алгоритмы и сложность. Ключевой частью этой области является изучение и применение структур данных, подходящих для различных приложений. Структуры данных, наряду с разработкой оптимальных алгоритмов для вставки, удаления и поиска данных в таких структурах, являются серьезной проблемой для ученых-компьютерщиков, поскольку они так интенсивно используются в компьютерном программном обеспечении, особенно в компиляторах, операционных системах, файловых системах и т. д. и поисковые системы.

В 1960-х годах изобретение накопителей на магнитных дисках обеспечило быстрый доступ к данным, расположенным в произвольном месте на диске. Это изобретение привело не только к более продуманным файловым системам, но и к развитию баз данных и систем поиска информации, которые позже стали необходимы для хранения, поиска и передачи больших объемов и разнообразных данных через Интернет. Эта область информатики известна как управление информацией.

Еще одной долгосрочной целью исследований в области компьютерных наук является создание вычислительных машин и роботизированных устройств, способных выполнять задачи, которые обычно считаются требующими человеческого интеллекта. К таким задачам относятся движение, зрение, слух, речь, понимание естественного языка, мышление и даже проявление человеческих эмоций. Область информатики интеллектуальных систем, первоначально известная как искусственный интеллект (ИИ), на самом деле возникла еще до появления первых электронных компьютеров в 1940-х годах, хотя термин искусственный интеллект появился только в 1956 году.

Три достижения в области вычислительной техники в начале 21 века — мобильные вычисления, клиент-серверные вычисления и взлом компьютеров – способствовали появлению трех новых областей компьютерных наук: разработка на основе платформ, параллельные и распределенные вычисления, и обеспечение безопасности и информации. Платформенная разработка — это изучение особых потребностей мобильных устройств, их операционных систем и их приложений. Параллельные и распределенные вычисления касаются разработки архитектур и языков программирования, которые поддерживают разработку алгоритмов, компоненты которых могут работать одновременно и асинхронно (а не последовательно), чтобы лучше использовать время и пространство. Безопасность и обеспечение информации связаны с проектированием вычислительных систем и программного обеспечения, которые защищают целостность и безопасность данных, а также конфиденциальность лиц, для которых эти данные характерны.

Наконец, на протяжении всей истории компьютерных наук особое беспокойство вызывает уникальное общественное влияние, которое сопровождает исследования в области компьютерных наук и технологические достижения. Например, с появлением Интернета в 1980-х разработчикам программного обеспечения необходимо было решить важные вопросы, связанные с информационной безопасностью, личной конфиденциальностью и надежностью системы. Кроме того, вопрос о том, является ли программное обеспечение интеллектуальной собственностью, и связанный с ним вопрос «Кому оно принадлежит?» породила совершенно новую правовую область лицензирования и стандартов лицензирования, которые применялись к программному обеспечению и связанным с ним артефактам. Эти и другие проблемы составляют основу социальных и профессиональных проблем компьютерных наук, и они появляются почти во всех других областях, указанных выше.

Подводя итог, можно сказать, что дисциплина компьютерных наук превратилась в следующие 15 отдельных областей:

Основные этапы имитационного исследования
Применение имитационного моделирования включает в себя определенные шаги, необходимые для успешного проведения имитационного исследования. Независимо от типа задачи и цели исследования процесс, посредством которого выполняется моделирование, остается постоянным. Далее кратко описаны основные этапы процесса моделирования [6, 7]:

    Определение проблемы
    На начальном этапе необходимо определить цели исследования и определить, что необходимо решить. Проблема далее определяется посредством объективных наблюдений за изучаемым процессом. Следует проявлять осторожность, чтобы определить, является ли моделирование подходящим инструментом для исследуемой проблемы.

Решения по моделированию
Выполнение необходимых шагов имитационного исследования определяет вероятность успеха исследования. Хотя знание основных этапов исследования с помощью моделирования важно, не менее важно понимать, что не все проблемы следует решать с помощью моделирования. В прошлом имитационное моделирование требовало специальной подготовки программистов и аналитиков для работы с очень большими и сложными проектами. Теперь, из-за большого количества доступного программного обеспечения, моделирование иногда используется ненадлежащим образом людьми, не имеющими достаточной подготовки и опыта. Когда моделирование применяется ненадлежащим образом, исследование не даст значимых результатов. Неспособность достичь желаемых целей моделирования может привести к обвинению самого подхода к моделированию, хотя на самом деле причина неудачи заключается в неправильном применении моделирования [8].

  1. Тип проблемы
  2. Наличие ресурсов
  3. Стоимость
  4. Доступность данных

Наличие ресурсов. Люди и время являются определяющими ресурсами для проведения имитационного исследования. Опытный аналитик является наиболее важным ресурсом, поскольку у такого человека есть возможность и опыт для определения как соответствующего уровня детализации модели, так и того, как проверить и утвердить модель. Без обученного симулятора может быть разработана неправильная модель, которая даст ненадежные результаты. Кроме того, выделение времени не должно быть ограничено настолько, чтобы вынуждать симулятора использовать ярлыки при разработке модели. В расписании должно быть достаточно времени для внесения любых необходимых изменений, а также для проверки и проверки, если результаты должны быть значимыми.

Стоимость. Следует учитывать затраты на каждый этап процесса моделирования, приобретение программного обеспечения для моделирования, если оно еще не доступно, и компьютерных ресурсов. Очевидно, что если эти затраты превышают потенциальную экономию при изменении существующей системы, то моделирование не следует проводить.

Доступность данных: необходимые данные должны быть идентифицированы и расположены, а если данные не существуют, то данные должны быть доступны для сбора. Если данные не существуют и не могут быть собраны, то продолжение исследования с помощью моделирования в конечном итоге приведет к ненадежным и бесполезным результатам.Результаты моделирования нельзя сравнивать с производительностью реальной системы, что крайне важно для проверки и проверки модели.

Основные шаги и решения для имитационного исследования включены в блок-схему, как показано ниже:

Этапы и решения для проведения имитационного исследования

После того как имитационное моделирование было определено как предпочтительный подход к решению конкретной проблемы, решение о реализации курса действий, предложенного по результатам имитационного исследования, не обязательно означает конец исследования, как показано на блок-схеме выше. Модель может поддерживаться для проверки реакции системы на изменения, с которыми сталкивается реальная система. Однако степень, в которой модель может поддерживаться, во многом зависит от ее гибкости и от того, для решения каких вопросов она изначально предназначалась.

Мар. По мнению исследователей, для создания более умных и точных систем искусственного интеллекта требуется гибридный человеко-машинный подход. В новом исследовании они представили новую математическую модель, которая может .

На пути к еще более мощным микрочипам и суперкомпьютерам

Мар. 8 августа 2022 года. Рассмотрение процесса расширения "закона Мура", согласно которому примерно каждые два года количество транзисторов, помещаемых в микрочип, удваивается, и разработка новых способов производства более мощных транзисторов.

Подход к устранению ошибок помогает квантовым компьютерам подняться на новый уровень

Фев. 24 февраля 2022 г. Недавние исследования выявили новый подход к уменьшению квантовых ошибок — «схемы оценки шума», — которые могут помочь увеличить теоретический потенциал квантовых вычислений.

Изучено стремление Калифорнии к образованию в области компьютерных наук

Фев. 24 июня 2022 г. Несмотря на политику штата Калифорния в области образования в области компьютерных наук, гендерные, расовые и этнические различия сохраняются между старшими школами, предлагающими эти курсы, обучающимися в них учащимися и преподавателями .

Искусственный интеллект прокладывает путь к открытию новых редкоземельных соединений

Мар. 18 февраля 2022 г. — Искусственный интеллект помогает ученым исследовать материалы. Исследователи обучили модель машинного обучения (ML) для оценки стабильности .

Мозговые вычислительные чипы больше не только для ИИ

Мар. 10 сентября 2022 г. С помощью небольшой математики исследователи показали, что нейроморфные компьютеры, которые синтетически воспроизводят логику мозга, могут решать более сложные задачи, чем те, которые ставит .

Компьютерные симуляторы наркотиков предупреждают о многообещающем лечении диабета и рака

Фев. 28 сентября 2022 г. С помощью компьютерного моделирования лекарств исследователи обнаружили, что врачам следует с осторожностью назначать перспективные методы лечения всех видов рака и .

Виртуальные суррогаты пациентов могут персонализировать лечение рака

Фев. 15 сентября 2022 г. Ученые разработали математические модели, которые выступают в качестве "суррогатов" пациентов для оценки потенциального рака простаты.

Исследователи используют суперкомпьютеры для крупнейшего в своем роде моделирования турбулентности

Фев. 14 июня 2022 г. Несмотря на то, что это одна из наиболее изучаемых тем в области суперкомпьютеров, фундаментальное понимание влияния турбулентного движения на потоки жидкости все еще остается.

Эксперты по компьютерному моделированию разработали модель борьбы с вредителями

Фев. 10 сентября 2022 г. – Математики разработали новую математическую модель, которая может значительно повысить эффективность борьбы с вредителями и, следовательно, значительно уменьшить воздействие вредителей на сельскохозяйственные культуры, при этом сведя к минимуму .

Откуда взялся этот звук?

Ян. 27 февраля 2022 г. — Нейробиологи разработали компьютерную модель, которая может локализовать звуки. Модель, состоящая из нескольких сверточных нейронных сетей, не только выполняет задачу так же хорошо, как люди, но и .

Исследователи ищут преимущества в квантовой гонке

Ян. 26 сентября 2022 г. Исследователи квантовых технологий значительно сократили время моделирования оптического квантового компьютера, увеличив его скорость примерно на миллиард по сравнению с предыдущими версиями.

Исследователи моделируют поведение живой «минимальной клетки» в трех измерениях

Ян. 20 февраля 2022 г. — Ученые сообщают, что они построили живую «минимальную клетку» с геномом, урезанным до самого необходимого, и компьютерную модель клетки, которая отражает ее поведение. Путем уточнения и .

К компактным квантовым компьютерам благодаря топологии

Ян. 20 февраля 2022 г. — Исследователи PSI сравнили распределение электронов под оксидным слоем двух полупроводников. Это исследование является частью усилий по разработке особо стабильных квантовых битов, и, таким образом, .

Проектирование химических реакций становится виртуальным

Мар. 14 ноября 2022 г. Исследователи стремятся упростить трудоемкий и ресурсоемкий процесс скрининга лигандов во время разработки катализатора с помощью виртуального домена .

Поучительная история о неопределенности машинного обучения

Мар.10 октября 2022 г. Новый анализ показывает, что исследователи, использующие методы машинного обучения, рискуют недооценить неопределенность в своих окончательных результатах.

Новый взгляд на оценку ошибок машинного обучения

Компьютерные игры в классе: успехи в обучении зависят от учителя

Мар. 3 января 2022 г. — Будущие педагоги видят в компьютерных играх образовательный потенциал, обучающие шоу. Поэтому подготовка учителей должна учитывать их потенциал в сфере .

Улучшено программное обеспечение BioCro для выращивания виртуальных культур

Фев. 28 февраля 2022 г. — Команда разработчиков обновила популярное программное обеспечение для моделирования роста сельскохозяйственных культур BioCro, сделав его более удобным и эффективным способом прогнозирования урожайности. Обновленная версия BioCro II позволяет моделистам использовать файлы .

Новаторские симуляторы фокусируются на вирусе ВИЧ-1

Фев. 23 февраля 2022 г. — Создана первая в мире биологически достоверная компьютерная модель липосомы вируса ВИЧ-1. Ключевым результатом моделирования является образование микродоменов, богатых сфингомиелином и холестерином. ВИЧ-1 .

Алгоритм может сократить тестирование качества и исследования во многих отраслях на месяцы

Фев. 15 ноября 2022 г. Алгоритм машинного обучения может предоставить автомобильной, аэрокосмической и другим отраслям более быстрый и экономичный способ массового тестирования.

Сбор скрытых данных о бессимптомных случаях COVID-19 позволяет получить более точную картину пандемии

Фев. 10 октября 2022 г. — Бессимптомные случаи COVID-19 — проклятие для компьютерных моделистов — они в неизвестной степени отбрасывают данные моделирования. Новый подход предполагает использование исторических данных об эпидемиях из .

Инженеры создают молекулярную основу для объединения экспериментальных и компьютерных наук для разработки материалов на основе пептидов

Ян. 25 сентября 2022 г. — Исследователи разработали платформу, которая решает задачу объединения экспериментальных и компьютерных наук для более точного предсказания пептидов.

Изучение Большого взрыва с помощью искусственного интеллекта

Ян. 25 февраля 2022 г. — Искусственный интеллект используется для решения многих чрезвычайно сложных задач. Так почему бы не использовать машинное обучение для изучения физики элементарных частиц? Как оказалось, это непросто из-за некоторых особенностей.

Новые модели могут улучшить прогнозирование схода лавин

Ян. 19 февраля 2022 г. — Согласно новому международному исследованию, компьютерное моделирование снежного покрова может точно предсказать опасность схода лавин. В настоящее время прогнозами лавин в Канаде занимаются опытные специалисты, которые .

Самоорганизация сложных структур: вопрос времени

Ян. 19 сентября 2022 г. Исследователи разработали новую стратегию производства наноструктур с минимальными затратами времени и ресурсов.

Новые модели оценивают ремонт опор моста после землетрясений

Ян. 18 сентября 2022 г. Инженеры-строители разрабатывают стратегию компьютерного моделирования, которая поможет спланировать эффективный ремонт поврежденного железобетона.

Когда вода течет со всех сторон

Ян. 13 февраля 2022 г. — Исследователи разработали первую трехмерную оперативную модель штормового нагона. Модель имитирует смешанный нагон и наводнение, особенно в переходных зонах, где река встречается с .

Компьютерная модель пытается объяснить распространение дезинформации и предложить контрмеры

Ян. 11 ноября 2022 г. — Исследователи придумали компьютерную модель, которая отражает то, как дезинформация распространяется в реальной жизни. Эта работа может дать представление о том, как защитить людей от нынешнего заражения вирусом .

Взаимодействия света и материи смоделированы на самом быстром в мире суперкомпьютере

Ян. 7 сентября 2022 г. — Исследователи разработали вычислительный подход для моделирования взаимодействия между материей и светом на атомном уровне. Команда проверила свой метод, смоделировав взаимодействие света и материи в .

Поиск способа предотвратить обман аудиомоделей для машинного обучения ИИ

Ян. 7 сентября 2022 г. — Появились предупреждения о ненадежности метрик, используемых для определения того, могут ли люди воспринимать звуковые возмущения, предназначенные для обмана моделей ИИ. Исследователи показывают, что искажение .

Инженеры разрабатывают новый программный инструмент для помощи в исследованиях по моделированию материалов

Ян. 5 января 2022 г. — Новый программный инструмент может ускорить исследования в области материаловедения, отказавшись от утомительных фоновых исследований свойств материалов. Исследователи недавно представили propSym, программное обеспечение с открытым исходным кодом на платформе .

Система распознает жесты рук для расширения компьютерного ввода на клавиатуре

Ян. 5 июня 2022 г. Исследователи разрабатывают новую технологию, которая использует жесты рук для выполнения команд на .

Компьютерное моделирование моделирует возможные столкновения с астероидами

Декабрь. 21 февраля 2021 г. — Исследователи разработали компьютерную симуляцию столкновений астероидов, которая изначально стремилась воспроизвести модели столкновений с астероидами, выполненные в лаборатории. После проверки точности .

Читайте также: