Индекс


Ссылка на сообщениеhttp://forum-zavtra.org/msg.php?id=997542
Дата сообщенияПонедельник, 16 Апрель 2018 12:21
АвторЮ.С.
В ответ наСтранный он какой-то
"Интересно, как он это пощитал?"
Ну считал не он, а брал для своей статьи данные у так сказать, признанных корифеев-специалистов.

Например: Виктор Майер-Шенбергер – профессор управления и регулирования Оксфордского университета, доктор юридических наук, автор публицистических изданий. Родился в 1966 году в Цель-ам-Зее, Австрия. После школы ищучал право в Зальцбургском университете и в Гарварде, а также окончил Лондонскую школу экономики. Получив высшее образование и защитив диссертацию, занялся преподавательской и научной деятельностью. Учёный выпустил ряд научно-популярных изданий, предназначенных для широкого круга читателей, и опубликовал более 100 научных статей. Одна из наиболее популярных работ Виктора, созданная в соавторстве с его коллегой по перу Кеннетом Кукьеро, называется «Большие данные. Революция, которая изменит то, как мы живем, работаем и мыслим». Авторы рассказывают:К чему приведет повальное увлечение интернетом.Как изменить ход событий, и есть ли вообще такая возможность. Хорошо ли будет во вновь созданном порядке.


В этой книге читаем в главе 3 "беспорядочность": "Подобный переход можно заметить в том, в какой степени увеличение объема данных важнее других усовершенствований в вычислительных технологиях. Всем известно, насколько вычислительная мощность выросла за эти годы в соответствии с законом Мура, который гласит, что число транзисторов на кристалле удваивается примерно каждые два года. В результате компьютеры стали быстрее, а память – объемнее. Производительность алгоритмов, которые управляют многими нашими системами, также увеличилась, но осталась несколько в тени. По некоторым данным, вычислительные алгоритмы улучшились примерно в 43 000 раз в период между 1988 и 2003 годами – значительно больше, чем процессоры в соответствии с законом Мура[41]. Однако многие достижения, наблюдаемые в обществе благодаря большим данным, состоялись не столько за счет более быстрых чипов или улучшенных алгоритмов, сколько за счет увеличения количества данных".

http://modernlib.ru/books/viktor_mayer-shenberger/bolshie_dannie_revolyuciya_kotoraya_izmenit_to_kak_mi_zhivem_rabotaem_i_mislim/read/

Но ноги растут, скорее всего, из доклада US National Research Council,Национальный совет США по исследованиям, который в декабре 2010 опубликовал доклад о будущем компьютерной производительности. Главный его посыл таков: быстрое развитие ИТ, стимулирующих рост многих секторов американской экономики, может заглохнуть, если страна не предпримет экстренных мер по активизации фундаментальных исследований и разработке аппаратных и программных параллельных систем.

Известная тестовая задача планирования, использующая методы линейного программирования, на компьютере 1988 года с применением алгоритмов того времени требовала 82 года. В 2003 году она решалась на оборудовании той же цены с применением более продвинутого ПО за одну минуту -- но если мощность железа выросла в тысячу раз, то производительность алгоритмов увеличилась в 43 миллиона раз. То есть эффективность алгоритмического подхода увеличилась в 43 тысячи раз.

Известный немецкий профессор Martin Grotschel из берлинского Института математики полагает, что в период 1991-2008 годы улучшение производительности алгоритмов целочисленного программирования составило 30 тысяч раз.