Чрезмерное доверие нейронным сетям может быть губительно для научного знания. Чтобы ученые не оказались погребены под валом ошибочных результатов, необходимы строгие и продуманные стандарты применения искусственного интеллекта. Научный обозреватель Forbes Анатолий Глянцев рассказывает о новой работе, в которой предложено решение этой проблемы
Ученые не могли пройти мимо такого мощного инструмента, как искусственный интеллект (ИИ). Если нейронные сети улучшают фотографии на смартфонах, почему бы им не улучшать рентгеновские снимки? Коль скоро телефонные роботы синтезируют звуки по буквам, почему бы нейронной сети не синтезировать структуру молекул по формулам? И если уж нейросети справляются с экзаменами на адвокатскую лицензию, не пора ли поручить им писать обзоры научной литературы?
Новости о победах ИИ появляются одна за другой. Нейронные сети предсказали трехмерные структуры сотен тысяч белков и нашли миллионы новых материалов. Искусственный интеллект справляется с прогнозами погоды точнее метеорологов и помогает врачам в постановке диагнозов.
В этом восторженном хоре трудно расслышать голоса скептиков, предупреждающих: блестящие успехи могут оказаться вершиной айсберга, состоящего из ошибок и спекуляций.
