Размещение данных алгоритма для оптимизации использования кэш памяти описано, например, в [2], [5]. Одновременное разбиение операций и данных алгоритма на части для оптимизации использования кэш памяти описано, например, в [1], [10]. В данной работе приведены примеры, иллюстрирующие границы возможностей методов [1], [10]. В качестве описания размещений данных, которые подстраиваются и под кэш, и под распределенную память, можно использовать блочно-аффинные размещения данных [7], [9].
На сайте [] приводятся первые примеры программ, использующие такие блочно-аффинные размещения данных, которые удобны и для автоматизации размещения данных в распределенной памяти при автоматическом распараллеливании и могут давать до 40% ускорения при использовании кэш-памяти (программы написаны программистами Е. Кравченко и М. Юрушкиным с использованием системы ДВОР www.ops.rsu.ru ).
Для размещения данных в иерархической распределенной памяти предполагается использовать рекурсивные описания блочно-аффинных размещений,
9 ЛИТЕРАТУРА:
1. Адигеев М.Г. Неразделенный коммутационный граф с числом вершин n*log2n. Математические заметки, 1995 г., т.58, вып. 3., с. 323-333.
2. Арыков С.Б., Малышкин В.Э. Система асинхронного параллельного программирования «Аспект»// Вычислительные методы и программирование. 2008. Т. 9, №1, c. 205-209.
3. Арапбаев Р.Н. Анализ зависимостей по данным: тесты на зависимость и стратегии тестирования. Диссертация на соискание ученой степени кандидата физико-математических наук, Новосибирск, ИСИ СО РАН, 2008 г., 116 с.
4. Артамонов Г.Т. Топология регулярных вычислительных сетей и сред/ М., «Радио и связь», 1985, 192 с.
5. Артамонов Г.Т., Тюрин В.Д. Топология сетей ЭВМ и многопроцессорных систем// М., «Радио и связь», 1991, 248 с.
6. Архангельская А.А., Ершов В.А., Нейман В.И. Автоматическая коммутация каналов связи. – М.: «Связь», 1970, 192 с..
7. Ахо А., Хопкрофт Дж., Ульман Дж. Построение и анализ вычислительных алгоритмов// М., «Мир», 1979, 536 с.
8. Абрамян М.Э. Реализация универсального электронного задачника по программированию // Информатика и образование, 2009, № 6. — С. 118–120.
9. Антонов А.С. Параллельное программирование с использованием технологии MPI.// М.: Изд-во МГУ, 2004 г., 71 с.
10. Ахо А., Хопкрофт Дж., Ульман Дж. Построение и анализ вычислительных алгоритмов// М., «Мир», 1979, 536 с.
11. Бабичев А.В., Лебедев В.Г. Распараллеливание программных циклов./ Программирование// 1983, N 5, с. 52-63.
12. Бабаян Б. Основные принципы архитектуры Е2К. “Main Principles of E2K Architecture”, Free Software Magazine, v. 1, Issue 02, Feb 2002 17. (Китай).
13. Бабаян Б.А. Уровень программирования и архитектурные принципы построения ЭВМ //В сб. «Кибернетика и вычислительная техника», М., «Наука», 1986, №2, с. 18-27.
14. Бабаян Б., Бочаров А.В., Волин В.С., Гаврилов С.С., Грошев А.С., Груздов Ф.А., Еремин М.В., Зотов С.М., Плоткин А.Л., Пшеничников Л.Е., Рябов Г.Г., Чудаков М.Л., Шевяков В.С. Многопроцессорные ЭВМ и методы их проектирования. М.: «Высшая школа», 1990 г., 144 с.
15. Бенеш В.Э. Математические основы теории телефонных сообщений.- М.: «Связь», 1968, 292 с.
16. Вальковский В.А., Распараллеливание алгоритмов и программ. Структурный подход/ М., «Радио и связь», 1989 г., 176 с.
17. Вальковский В.А. Параллельное выполнение циклов. Метод пирамид. - Кибернетика. 1983, N 5. с. 51-55.
18. Вальковский В.А. Параллельное выполнение циклов. Метод параллелепипедов. - Кибернетика. 1982, N 2. с. 51-62.
19. Валях Е. Последовательно-параллельные вычисления// М., Мир, 1985, 456 с.
20. Векторизация программ. // Векторизация программ: теория, методы, реализация. / Сборник переводов статей М.: Мир, 1991. С. 246 - 267.
21. Воеводин В.В. Математические основы параллельных вычислений, М., МГУ, 1991, 345 с.
22. Воеводин В.В. Воеводин Вл.В. Параллельные вычисления, С-Петербург «БХВ-Петербург», 2002, 599 с.
23. Воеводин Вл. В. Статистические оценки возможности выявления параллельной структуры последовательных программ. // Программирование, № 4, 1990, с. 44-54.
24. Воеводин Вл. В. Теория и практика исследования параллелизма последовательных программ. // Программирование, № 3, 1992, с. 38-54.
25. Воеводин В.В. Математические модели и методы в параллельных процессах// М.: Наука, гл. ред. физ.-мат. лит., 1986, 296 с.
26. Воеводин В.В. Воеводин Вл.В. Параллельные вычисления, С-Петербург «БХВ-Петербург», 2002, 599 с.
27. Воеводин В.В. Пакулев В.В. Определение дуг графа алгоритма. - М., Отдел вычислительной математики АН СССР, 1989, 22 с. (препринт).
28. Волконский В. Ю., Ким А.К. Развитие идей параллелизма в архитектуре вычислительных комплексов серии «Эльбрус» PACO’2008, Труды четвертой международной конференции «Параллельные вычисления и задачи управления», Москва.: 27-29 октября 2008 г. с. 42-66.
29. Волконский В.Ю. Современные оптимизирующие компиляторы. Информационные технологии и вычислительные системы. № 3, 2004 г. с. 4-26.
30. Волконский В.Ю., Дроздов А.Ю., Ровинский Е.В. Метод использования мелкоформатных векторных операций в оптимизирующем компиляторе. Информационные технологии и вычислительные системы. № 3, 2004 г. с. 63-77.
31. Вьюкова Н.И., Галатенко В.А., Самборский С.В., Шумаков С.М. Генерация эффективного кода для процессорных архитектур с явным параллелизмом// Программирование, 2002, № 5, с. 27-51.
32. Вьюкова В.И., Галатенко В.А., Самборский С.В. Использование ЦЛП подхода для совмещения программной конвейеризации внутреннего цикла с разверткой внешних циклов при компиляции гнезда вложенных циклов. PACO’2008, Труды четвертой международной конференции «Параллельные вычисления и задачи управления», Москва.: 27-29 октября 2008 г. с. 1208-1220.
33. Воробьев Н.Н. Числа Фибоначчи// М., Наука, Гл. ред. физ. мат. лит., 1984, 144 с.
34. Гельфонд А.О. Решение уравнений в целых числах. М.: «Гос. изд-во техн.-теоретич. Литературы», 1952. 63 с.
35. Гергель В.П. Введение в методы параллельного программирования. Образовательный комплекс. ННГУ.
36. Гергель В.П., Свистунов А.Н. Разработка интегрированной среды высокопроизводительных вычислений для кластера Нижегородского университета// Научный сервис в сети Интернет. Труды Всероссийской научной конференции, г. Новороссийск, 22-27 сентября 2003. – М.: изд-во МГУ, с. 102-104.
37. Гергель В.П., Стронгин Р.Г. Основы параллельных вычислений для многопроцессорных вычислительных систем (2003, 2 изд.). Н.-Новгород, ННГУ.
38. Гэри М., Джонсон Д. Вычислительные машины и труднорешаемые задачи. - М.: Мир, 1982, 416 с.
39. Гохберг И.Ц., Фельдман И.А. Уравнения в свертках и проекционные методы их решений. - М.: Наука, 1971.
40. Гуда С.А. Оценки длины критического пути в решетчатом графе. PACO’2008, Труды четвертой международной конференции «Параллельные вычисления и задачи управления», Москва.: 27-29 октября 2008 г. с.
41. Дроздов А. Ю. Компонентный подход к построению оптимизирующих компиляторов // Программирование. 2009. № 5.
42. Евстигнеев В.А. Применение теории графов в программировании// М. «Наука», Главная редакция физико-математической литературы, 1985 г., 352 с.
43. Евстигнеев В.А., Касьянов В.Н. Оптимизирующие преобразования в распараллеливающих компиляторах// Программирование, 1996, № 6, с. 12-26.
44. Евстигнеев В.А., Мирзуитова И.А. Анализ циклов: выбор кандидатов на распараллеливание. Препринт № 58, ИСИ РАН, Новосибирск, 1999, 41 с.
45. Евстигнеев В.А., Спрогис С.В. Векторизация программ. - В сборнике: "Векторизация программ: теория, методы, реализация." - М.: Мир, 1991, с. 246 - 267.
46. Евреинов Э.В., Косарев Ю.Г. Однородные универсальные вычислительные системы высокой производительности: Новосибирск, Наука, 1966 г.
47. Зыков А.А. Основы теории графов. М., «Вузовская книга», 2004, 662 с.
48. Каляев А.В., Левин И.И. Модульно-наращиваемые многопроцессорные системы со структурно-процедурной организацией вычислений //М., «Янус-К», 2003, 380 с.
49. Каляев А.В., Многопроцессорные системы с программируемой архитектурой, М., «Радио и связь», 1984, 240 с.
50. Каляев И.А., И.И. Левин, С.А. Семерников, В.И. Шмойлов Реконфигурируемые мультиконвейерные вычислительные структуры. Ростов-на-Дону, Из-во ЮНЦ РАН, 2008 г., 393 с.
51. Касьянов В.Н., Оптимизирующие преобразования программ/ М., «Наука», 1988 г., 336 с.
52. Касьянов В.Н., Евстигнеев В.А. Графы в программировании: обработка, визуализация и применение. - СПб.: БХВ-Петербург, 2003 г. – 1104 с.
53. Касперский К. Техника оптимизации программ. Эффективное использование памяти. - СПб.: БХВ-Петербург, 2003 г. – 456 с.
54. Климов А.В. Умножение плотных матриц на неоднородных высокопараллельных вычислительных системах (анализ коммуникационной нагрузки). «Информационные технологии», №3, 2008, с.24-31.
55. Князьков В.С., Бикташев Р.А. Многопроцессорные системы. Архитектура, топология, анализ производиетльности. Учебное пособие. – Пенза: Пенз. гос. ун-т, 2003 г.
56. Ковалев М.М. Дискретная оптимизация./ Мн. Изд-во БГУ,
1977, 192 с.
57. Кодачигов В.И. Электронная коммутация информационных каналов. – Ростов-на-Дону, изд-во Ростовского университета, 1983, 208 с.
58. Корнеев В.В. Программная настраиваемость аппаратной архитектуры//Открытые системы, из-во «Открытые системы», 2007 г., № 10.
59. Корнеев В.В. Архитектура вычислительных систем с программируемой структурой. Новосибирск, Наука, 1985 г., 166 с.
60. Корнеев В.Д. Параллельное программирование в MPI. Москва-Ижевск: Институт компьютерных исследований, 2003, 304 с.
61. Корнеев В.В. Параллельные вычислительные системы// М., «Нолидж», 1999, 311 с.
62. Корнеев В.В. Проблемы программирования суперкомпьютеров на базе многоядерных мультредовых кристаллов. Научный сервис в сети Интернет: масштабируемость, параллельность, эффективность: Труды Всероссийской суперкомпьютерной конференции (21-26 сентября 2009 г., г. Новороссийск). М.: Изд-во МГУ, 2009.
63. Корнеев В.В., Киселев А.В., Современные микропроцессоры. 2 издание. М., «НОЛИДЖ», 2000 г., с. 315.
64. Корнеев В.В., Хорошевский В.Г. Архитектура вычислительных систем с программируемой структурой// Новосибирск, Ин-т математики СО АН СССР, препринт ОВС-10, 1979, 48 с.
65. Корнеев В.В., Хорошевский В.Г. Структура и функциональная организация вычислительных систем с программируемой структурой// Новосибирск, Ин-т математики СО АН СССР, препринт ОВС-11, 1979, 48 с.
66. Коуги П.М. Архитектура конвейерных ЭВМ//М., «Радио и связь», 1985 г. 358с.
67. Кристофидес Н. Теория графов. Алгоритмический подход. - М.: Мир, 1974.
68. Ки-Чанг Ким Мелкозернистое распараллеливание неполных гнезд циклов// Программирование, 1997, №2, с. 52-66.
69. Корж А.А. Результаты масштабирования бенчмарка NPB UA на тысячи ядер суперкомпьютера Blue Gene/P с помощью PGAS-расширения OpenMP. Вычислительные методы и программирование. 2010, т. 11, с. 31-41.
70. Лацис А.О. Как собрать и использовать суперкомпьютер.// М. «Бестселлер», 2003, 238 с.
71. Лиходед Н.А. Распределение операций и массивов данных между процессорами.// Программирование, 2003, №3, с. 73-80.
72. Левин И.И. Модульно наращиваемая многопроцессорная вычислительная система со структурно-процедурной организацией вычислений на основе ПЛИС-технологий.// Искусственный интеллект. Научно-теоретический журнал. Институт проблем искусственного интеллекта НАНУ. Украина, Донецк, ДонДИШИ, “Наука и Освита”, 2003, № 4, с. 446-453.
73. Левин И.И., Штейнберг Б.Я. Сравнительный анализ эффективности параллельных программ для различных архитектур параллельных ЭВМ. // Искусственный интеллект. Научно-теоретический журнал. Институт проблем искусственного интеллекта НАНУ. Украина, Донецк, ДонДИШИ, “Наука и Освита”, 2001, № 3, с. 234-242.
74. Матиясевич Ю.В. Вещественные числа и ЭВМ. //В сб. «Кибернетика и вычислительная техника», М., «Наука», 1986, №2, с. 104-133.
75. Метлицкий Е.А., Каверзнев В.В. Системы параллельной памяти. Теория, проектирование, применение. - Ленинград, ЛГУ, 1989, с. 240.
76. Нис З.Я. Обеспечение статической семантической корректности программ при проведении распараллеливающих и оптимизирующих преобразований. PACO’2008, Труды четвертой международной конференции «Параллельные вычисления и задачи управления», Москва.: 27-29 октября 2008 г. с.
77. Нис З. Я. Преобразования программ: контроль семантической корректности // Изв. вузов. Сев.-Кавк. регион. Естественные науки. 2010 г., №1. С. 18-21.
78. Петренко В.В. Внутреннее представление REPRISE распаралелливающей системы. PACO’2008, Труды четвертой международной конференции «Параллельные вычисления и задачи управления», Москва.: 27-29 октября 2008 г. с.
79. Писсанецки С. Технология разреженных матриц. М., Мир, 1988, 411 с.
80. Подлазов В.С. Свойства мультикольцевых и гиперкубовых коммутаторов на произвольных перестановках. // PACO’2001/ Труды международной конференции «Параллельные вычисления и задачи управления». М., 2-4 октября 2001 г., ИПУ РАН, с. 152-164.
81. Прангишвили И.В., Виленкин С.Я., Медведев И.Л., Параллельные вычислительные системы с общим управлением// М.: Энергоатомиздат, 1983. – 312 с.
82. Полетаев С.А. Параллельные вычисления на графических процессорах. Конструирование и оптимизация параллельных программ. В сб. Новосибирск: Институт систем информатики им. А.П. Ершова СО РАН, 2008, 332 с.
83. Разборов Л.А. P=NP? – проблема: взгляд из 90-х. стр. 399-416. В сб. Математические события 20-ого Века. М. ФАЗИС, 2003, 560 с.
84. Самофалов К.Г., Луцкий Г.М. Основы теории многоуровневых конвейерных вычислительных систем. – Москва: Радио и связь, 1989, 272 с.
85. Свами М., Тхуласираман К. Графы, сети, алгоритмы. М., Мир, 1984, 454 с.
86. Сергиенко А.М. VHDL для проектирования вычислительных устройств. – К.: ЧП «Корнейчук», ООО «ТИД ДС», 2003. 208 с.
87. Суховерхов С.Е., Штейнберг О. Б. Автоматическое распараллеливание рекуррентных циклов с проверкой устойчивости. «Информационные технологии», №1, 2010 г.
88. Савельев В.А., Штейнберг Б. Я. Распараллеливание программ. Ростов-на-Дону, изд-во Южного федерального университета, 2008 г. 192 с.
89. Французов Ю.А. Обзор методов распараллеливания кода и программной конвейеризации// Программирование, 1992, № 3, с. 16-37.
90. Фаддеева В.Н., Фаддеев Д.К. Параллельные вычисления в линейной алгебре. 1.// Кибернетика.- 1977.- N 6, с. 28-40.
91. Фаддеев Д.К., Фаддеева В.Н. Параллельные вычисления в линейной алгебре. 2. – Кибернетика, 1982, № 3, с. 18-31, 44.
92. Уилсон Р. Введение в теорию графов: М.: Мир. 1977
93. Харари Ф. Теория графов. М.: Мир, 1973 г. 300 с
94. Хохлюк В.И. Параллельные алгоритмы целочисленной оптимизации. // М., «Радио и связь», 1987, 224 с.
95. Шон Пипер, Джоан Пол, Майкл Сколт. Новая эра в оценке производительности компьютерных систем//Открытые системы, из-во «Открытые системы», 2007 г., № 9, с. 52-58.
96. Штейнберг Б.Я. Оптимальные параллельные переразмещения двумерных массивов.//Программирование, N 6, 1993 г. с.81-88.
97. Штейнберг Б.Я. Бесконфликтные размещения массивов при параллельных вычислениях// Кибернетика и системный анализ/ 1999, N 1, с. 166-178.
98. Штейнберг Б.Я. Оптимальные параллельные переразмещения многомерных массивов при параллельных вычислениях// Международная научно-техническая конференция <Интеллектуальные многопроцессорные системы>/ 1-5 сентября, 1999, Таганрог, Россия, Сборник трудов, с.151-155.
99. Штейнберг Б.Я. Распараллеливание рекуррентных циклов с условными операторами// Автоматика и телемеханика/ 1995, N6, с. 176-184.
100. Штейнберг Б.Я. Подстановка и переименование индексных переменных в многомерных циклах.// Известия вузов. Северокавказский регион. Юбилейный выпуск. 2002 г., с. 94-99.
101. Штейнберг Б.Я. Открытая распараллеливающая система//Открытые системы, из-во «Открытые системы», 2007 г., № 9, с. 36-41.
102. Штейнберг Б.Я. Распараллеливание рекуррентных программных циклов.// Информационные технологии, №4, 2004 г., с. 16 – 23.
103. Штейнберг Б.Я. Математические методы распараллеливания рекуррентных программных циклов на суперкомпьютеры с параллельной памятью.// Ростов-на-Дону, Издательство Ростовского университета, 2004 г., 192 с.
104. Штейнберг Б. Я. Блочно рекурсивное параллельное перемножение матриц. «Известия ВУЗов. Приборостроение», т. 52, №10, 2009 г., с. 33-41.
105. Штейнберг Б.Я. Блочно-аффинные размещения данных в параллельной памяти. «Информационные технологии». №6, 2010, стр. 36-41
106. Штейнберг Б.Я. Оптимизация размещения данных в параллельной памяти. Ростов-на-Дону, изд-во Южного федерального университета, 2010, 255 с.
107. Штейнберг О. Б. Распараллеливание рекуррентных циклов с нерегулярным вычислением суперпозиций. «Известия ВУЗов. Северокавказский регион. Естественные науки», №2, 2009 г., с. 18-21.
108. Штейнберг О.Б. Автоматическое распараллеливание рекуррентных циклов с нерегулярным вычислением суперпозиций. PACO’2008, Труды четвертой международной конференции «Параллельные вычисления и задачи управления», Москва.: 27-29 октября 2008 г. с.
109. Штейнберг Р. Б. Отображение гнезд циклов на многоконвейерную архитектуру, Программирование, 2010, № 3.
110. Шульженко А.М. Автоматическое определение циклов ParDo в программе // Известия вузов. Северокавказский регион. Естественные науки. Приложение 11’05. c. 77-88.
111. Allen R., Kennedy K. Optimizing compilers for Modern Architetures // Morgan Kaufmann Publisher, Academic Press, USA, 2002, 790 p.
112. Almasi G.S., Gottlib A. Highly Parallel Computing.- 1989, The Benjamin/Cummings Publishing Company, inc.
113. Akhter Sh., Jason R. Multi-Core Programming . Increasing Performance Through Software Multi-threading. USA, Intel-Press, April 2006, 336 p.
114. Banerjee U., Chen S.-C., Kuck D.J., Towle R.A. Time and Parallel Processor Bounds for Fortran-Like Loops// IEEE Transactions on Computers, vol. c-28, № 9, 1979, p. 660-670.
115. Bondalapati K.K. Modeling and Mapping for Dynamically Reconfigurable Hybrid Architectures, Thesis of Philosophy Doctor Dissertation, University of Southern Caroline, 2001.
116. Bondalapati K., Prasanna V. Reconfigurable computing systems, // http://citeseerx.ist.psu.edu/viewdoc/summary?doi=10.1.1.11.4918, 2002, 40 p.
117. Compton K., Hauck S. Reconfigurable Computing. A Survey of Systems and Software. ACM Computing Surveys, Vol. 34, No. 2, June 2002, pp. 171-210.
118. Cooper K.D., Torcson L. Engineering a Compiler.// Morgan Kaufmann Publishers, Elsvier Science, San Francisko, USA, 2003.
119. Collard Jean-Francois, Feautrier Paul, Risset Tanguy Construction of DO Loops from Systems of Affine Constraints//Laboratoire de I’Informatique du Parallelisme, Lyon, Institut IMAG, Research Report № 93-15, May 1993, p. 1-26.
120. Cytron R., Ferrante J. What’s in a name? Or The value of renaming for parallelism detection and storage allocation. IBM Res. Rep. RC 12785 (#55984), 1987.
121. Fahringer T., Scholz B. A Unified Symbolic Evaluation Framework for Parallelizing Compilers// IEEE Transactions on Parallel and Distributed Systems, vol. 11, № 11, November 2000, с. 1105-1125.
122. Feautrier Paul Parametric Integer Programming// Laboratoire MASI, Institut Blaise Pascal, Universite de Versailles St-Quentin, 1988, p. 25.
123. Feautrier Paul Data Flow Analysis for Array and Scalar References// International Journal of Parallel Programming/V. 20, N 1, Feb. 1991, p. 23-53.
124. Feautrier Paul. Some efficient solutions to the affine scheduling problem. Part 1. One-dimensional time. //”International journal of Parallel Programming”, V. 21, № 5, October, 1992.
125. Feautrier Paul. Some efficient solutions on the affine scheduling problem. Part 2. Multidimentional Time. // Technical Report, IBP/MASI, Number 92.78, Octouber, 1992, 28 p.
126. Gergel V.P. Teaching Course: CS338. Introduction to Parallel Programming http://www.software.unn.ru/ccam/mskurs/ENG/HTML/cs338_pp_labs.htm
127. Gupta H., Sadayappan P. Communication Efficient Matrix-Multiplication on Hypercubes. Technical Report. Stanford InforLab. (Publication Note: Sixth Annual ACM Symposium on Parallel Algorithms and Architectures, 1994 (SPAA 1994). Extended version in Parallel Computing, 22 (1996) 75-99.) http://ilpubs.stanford.edu:8090/59/
128. Kulkurni D., Stumm M. Loop and Data Transformations: A Tutorial. Technical Report CSRI 337, Computer Systems Research Institute, University of Toronto, June 1993, 53 p.
129. Lamport L. The Coordinate Method for the parallel execution of DO loops// Sagamore Computer Conference on Parallel Processing.- 1973, p. 1-12.
130. Lamport L. The parallel execution of DO loops// Commun. ACM.- 1974.- v.17, N 2, p. 83-93.
131. Lim Amy W., Cheong Gerald I. and Lam Monika S.. An Affine Partitioning Algorithm to Maximize Parallelism and Minimize Communication. Stanford University, Stanford, CA 94305, 10 p.
132. Lim Amy W., Lam Monika S. Cache Optimizing with Affine Partitioning. 14 p.
133. Lim Amy W., Lam Monika S. Maximizing Parallelism and Minimizing Synchronization with Affine Partitions. Parallel Computing, 24, 1998, p. 445-475.
134. Lim Amy W., Lam Monika S. Maximizing Parallelism and Minimizing Synchronization with Affine Transformations. 14 p.
135. Pugh W. The Omega Test: a fast and practical integer programming algorithm for dependence analysis.// Comm. Of the ACM, August, 1992.
136. Siegel H.J. A Model of SIMD Machines and a Comparison of Various Interconnection Networks// IEEE Transactions on Computers, vol. c-28, № 12, 1979, p. 907-917.
137. Strassen V. Gaussian Elimination is not Optimal. – Numer. Math. 1969, vol. 13, № 4, p. 354-356.
138. Treleaven P.C. Parallel architecture overview.// Parallel Computing, 8 (1988), p. 59-70. North-Holland.
139. Wolf M., Banerjee U. Data Dependence and its Application to Parallel Processing/ International Journal of Parallel Programming// Vol.16, N 2, 1987, p. 137-178.
140. Wolf M., High Performance Compilers for Parallel Computing/1996, Addison-Wesley Publishing Company570 p.
141. Wolfe M. Beyond Induction Variables //SIGPLAN 1992, v. 27, № 7, p. 162-174.
142. Yuan Lin. Compiler Analysis of Sparse and Irregular Computations. Ph.D Thesis, Department of Computer Sciences University of Illinois Urbana-Champaign, 2000. www.polaris.org
143. www.top500.org Сайт «top500» – пятисот наиболее быстрых суперкомпьютеров Мира.
144. www.ops.rsu.ru Открытая распараллеливающая система.
145. www.polaris.cs.uiuc.edu
146. www.parallel.ru
147. www.parallel.ru/v-ray
148. www.parallel.guru.ru
149. www-suif.stanford.edu/research/
150. http://www.csrd.uiuc.edu/promis/
151. http://www.parallelsp.com/
Дата: 2018-12-21, просмотров: 526.