Ну считал не он, а брал для своей статьи данные у так сказать, признанных корифеев-специалистов.
Например: Виктор Майер-Шенбергер – профессор управления и регулирования Оксфордского университета, доктор юридических наук, автор публицистических изданий. Родился в 1966 году в Цель-ам-Зее, Австрия. После школы ищучал право в Зальцбургском университете и в Гарварде, а также окончил Лондонскую школу экономики. Получив высшее образование и защитив диссертацию, занялся преподавательской и научной деятельностью. Учёный выпустил ряд научно-популярных изданий, предназначенных для широкого круга читателей, и опубликовал более 100 научных статей. Одна из наиболее популярных работ Виктора, созданная в соавторстве с его коллегой по перу Кеннетом Кукьеро, называется «Большие данные. Революция, которая изменит то, как мы живем, работаем и мыслим». Авторы рассказывают:К чему приведет повальное увлечение интернетом.Как изменить ход событий, и есть ли вообще такая возможность. Хорошо ли будет во вновь созданном порядке.
В этой книге читаем в главе 3 "беспорядочность": "Подобный переход можно заметить в том, в какой степени увеличение объема данных важнее других усовершенствований в вычислительных технологиях. Всем известно, насколько вычислительная мощность выросла за эти годы в соответствии с законом Мура, который гласит, что число транзисторов на кристалле удваивается примерно каждые два года. В результате компьютеры стали быстрее, а память – объемнее. Производительность алгоритмов, которые управляют многими нашими системами, также увеличилась, но осталась несколько в тени. По некоторым данным, вычислительные алгоритмы улучшились примерно в 43 000 раз в период между 1988 и 2003 годами – значительно больше, чем процессоры в соответствии с законом Мура[41]. Однако многие достижения, наблюдаемые в обществе благодаря большим данным, состоялись не столько за счет более быстрых чипов или улучшенных алгоритмов, сколько за счет увеличения количества данных".
Но ноги растут, скорее всего, из доклада US National Research Council,Национальный совет США по исследованиям, который в декабре 2010 опубликовал доклад о будущем компьютерной производительности. Главный его посыл таков: быстрое развитие ИТ, стимулирующих рост многих секторов американской экономики, может заглохнуть, если страна не предпримет экстренных мер по активизации фундаментальных исследований и разработке аппаратных и программных параллельных систем.
Известная тестовая задача планирования, использующая методы линейного программирования, на компьютере 1988 года с применением алгоритмов того времени требовала 82 года. В 2003 году она решалась на оборудовании той же цены с применением более продвинутого ПО за одну минуту -- но если мощность железа выросла в тысячу раз, то производительность алгоритмов увеличилась в 43 миллиона раз. То есть эффективность алгоритмического подхода увеличилась в 43 тысячи раз.
Известный немецкий профессор Martin Grotschel из берлинского Института математики полагает, что в период 1991-2008 годы улучшение производительности алгоритмов целочисленного программирования составило 30 тысяч раз.