Форум 3DNews
Вернуться   Форум 3DNews > Железо > Видеокарты

Ответ Создать новую тему
Опции темы Опции просмотра
Непрочитано 14.12.2003, 23:41   [включить плавающее окно]   #1
Кузин Андрей
Team 3DNews
Автор темы
 
Регистрация: 04.02.2003
Адрес: Moscow
3DMark2003 build 320 vs 340: Редкий момент истины?

http://www.3dnews.ru/video/3dmark03patch340/

Приглашаем к обсуждению наболевшей темы заточек...
__________________
В политике, бизнесе и любви - измена лишь дело времени.
Кузин Андрей вне форума  
Конфигурация ПК
Ответить с цитированием
Непрочитано 14.12.2003, 23:53   [включить плавающее окно]   #2
DoomGuard
Мужской Умудрённый
 
Аватар для DoomGuard
 
Регистрация: 17.06.2003
Адрес: Israel
Если раньше Ати делала заточки под 3Дмарки(Нвидиа все равно делала и делает их больше),то сейчас она исправилась,как видно со статьи у Ати в отличие от Нвидии заточек нет.Конечно как пользователь видяхи радеон я рад-ведь тепер можно узнать точнее о производительности системы и прежде всего видяхи через 3Дмарк03.
Нвидиа же делая менее производительные в DX9 карты пытается решить проблему делая заточки в синтетических тестах при этом не давая узнать точную производительность своих видяхи в этих тестах.

Вообщем это мое мнение о Ати и Нвидиа.
DoomGuard вне форума  
Конфигурация ПК
Ответить с цитированием
Непрочитано 15.12.2003, 00:31   [включить плавающее окно]   #3
SOLO
Мужской Недосягаемый
 
Аватар для SOLO
 
Регистрация: 06.05.2003
Адрес: Иркутск
Даа, в интересное время живём товарищи. Пока что я взираю на все эти баталии с позиции стороннего наблюдателя, юзаю свою GF3 которую приобрёл в славный "период застоя", когда nVidia была неприрекаемым авторитетом, а термина "заточка драйверов" ещё не было в природе. Но вечно так продолжаться не может, и вскоре придётся подыскивать новую видеокарту. И что же я вижу: абсолютную неразбериху, вот что. Одно то что каждый производитель по своему трактует СТАНДАРТ DX9 чего стоит. И то что под эти трактовки подстраиваются производители игр. Это что же - покупать две видеокарты и менять их когда захочешь поиграть в новую игру, так что-ли? Я прекрасно понимаю позиции всех трёх сторон - это всё-таки бизнес и играют там по определённым правилам, отступить от которых сродни самоубийству. Но мне-то, как конечному потребителю их продукции от этого не легче. Самое смешное - что сейчас это только цветочки, ягодки будут позднее, когда одна за одной начнут выходить игры полностью построенные на DX9 и сменится ещё одно поколение видеоускорителей. Всё это до боли напоминает историю с 3dfx многолетней давности. Похоже история завершает ещё один "виток" и nVidia серьёзно рискует оказаться в шкуре своей недавней покупки. Похоже Кармак на сей раз оказал медвежью услугу своему партнёру, направив его по ложному пути. А обсуждать все эти "заточки" - пока не вижу смысла, только время расставит всё это по местам, только оно покажет кто окажется жизнеспособным а кого тихо - мирно похоронят. Причём совсем не обязательно это будет тот, чья продукция окажется быстрее. Победит тот, кто сможет этой продукции больше ПРОДАТЬ, а это совсем не одно и то же.
__________________
Добро всегда побеждает зло, поэтому кто победил - тот и добро.
SOLO вне форума  
Конфигурация ПК
Ответить с цитированием
Непрочитано 15.12.2003, 02:50   [включить плавающее окно]   #4
mcArrow
Guest
 
Я лично считаю, что надо их сравнивать в разных программах. Т.е. я хочу сказать, что т.к. ATI заточена под "спецификацию" DX9, ее и надо тестировать, хоть в том же 3DMark'е, а т.к. nVidia под "свой язык", то и надо найти "тестер" где реализованы все прелести тесто именно на Cg.
Я хочу сказать, что тестирую только в 3DMark'е результат получается не объективным, если так можно сказать. Надо искать аналогичные тесты для "стандарта" и "не стандарта", лучше, если это будет один "тест"
 
Ответить с цитированием
Непрочитано 15.12.2003, 08:01   [включить плавающее окно]   #5
Chaos
Guest
 
На мой взгляд Ати могут сыграть такую же злую шутку с Нвидиа. Выпустить специальное рождественское издание драйверов содержащих точно такие же заточки. Тогда посмотрим как FX будет радеонам в пуп дышать
У меня самого Radeon 9800. Спасибо тестерам за это.
 
Ответить с цитированием
Непрочитано 15.12.2003, 08:38   [включить плавающее окно]   #6
insanio
Новенький
 
Регистрация: 10.02.2003
со всей этой суетой, НВидиа, пусть даже она и абсолютно права, выглядит менее достойно, чем АТИ. Так что я более склоняюсь к покупке Радеона, хотя являюсь привержеником НВИдиа (сейчас стоит Gf Ti 4400), да если еще и добавить то, что с новыми драйверами у меня отвалился TV-Out
insanio вне форума  
Ответить с цитированием
Непрочитано 15.12.2003, 09:02   [включить плавающее окно]   #7
White Wizard
Мужской Заслуженный
 
Аватар для White Wizard
 
Регистрация: 17.08.2003
Адрес: Chelyabinsk
Я почему-то тже начинаю посматривать в сторону ATI а всё потаму что я полностью поддерживаю SOlOIMXO действительно история повторяется...
__________________
Психиатор больному: Нет нормальных людей, есть необследованные
White Wizard вне форума  
Конфигурация ПК
Ответить с цитированием
Непрочитано 15.12.2003, 11:56   [включить плавающее окно]   #8
bigbadik
Новенький
 
Регистрация: 15.12.2003
Адрес: Мокау
А я всегда говорил что Nvidia с жиру бесится да цену ломит на свои продукты. Вообще-то складывается такое ощущение, что контора гниет изнутри...
bigbadik вне форума  
Конфигурация ПК
Ответить с цитированием
Непрочитано 15.12.2003, 12:05   [включить плавающее окно]   #9
Rackot
Мужской Администратор
 
Аватар для Rackot
 
Регистрация: 06.02.2003
Адрес: Moscow
Цитата
На мой взгляд Ати могут сыграть такую же злую шутку с Нвидиа. Выпустить специальное рождественское издание драйверов содержащих точно такие же заточки.
Не, не могут. У них нет возможности переключать точность работы. ATI может работать в DX9 только 24 bit. NVIDIA же 16 и 32 bit. И переключение между этими режимами все зовут "заточками"
__________________
2501
Rackot вне форума  
Ответить с цитированием
Непрочитано 15.12.2003, 13:23   [включить плавающее окно]   #10
Seth
Мужской Начинающий
 
Регистрация: 19.09.2003
ИМХО можно долго обсуждать - кто тут прав, кто виноват - но я тоже перешёл на карты ATI. Т.е. как уже неоднократно говорилось - многие (и я, обычный пользователь, в том числе) крайне негативно воспринимают политику nVidia. Даже если их карточки лучше (отдельный вопрос) - всё равно не хочу.
Seth вне форума  
Ответить с цитированием
Непрочитано 15.12.2003, 14:25   [включить плавающее окно]   #11
carlos
Новенький
 
Регистрация: 15.12.2003
Адрес: Moscow
Называть все это cheating'ом со стороны NVIDIA - неправильно. Какая разница, с какой точностью проводятся вычисления, если визуально качество при этом не страдает ? Использовать float вместо double в C-коде - это читинг ? (разумеется, при условии что точности float'а достаточно для данной задачи) Конечно, нет. Использование нескольких форматов представления чисел - совершенно естественная и правильная вещь. Все к этому привыкли при программировании CPU, то же самое произойдет и с программированием GPU. Другое дело, что разработчикам _проще_ не задумываться о точности вычислений, а везде использовать full-precision, что и делают Futuremark (и, вероятно, другие разработчики DX9-игр). Говорить, что карты ATI выполняют шейдеры быстрее в full-precision - некорректно, поскольку точность вычислений у них при этом ниже (24 vs 32). Проблема NVIDIA в том, что многие разработчики оказались не готовы к такому переходу (использовать повышенную точность только там, где она действительно нужна - совершенно разумное правило), в результате чего мы имеем то, что имеем.

Да, драйвера NVIDIA меняют точность вычислений, меняют куски кода в шейдерах и изменяют порядок инструкций. До тех пор, пока это не сказывается на качестве изображения - это не cheating, это совершенно законные оптимизации. Совершенно ясно, что всегда можно подсунуть драйверу такой шейдер, что run-time оптимизатор сделать ничего не сможет. В этом плане позиция Futuremark не совсем понятна - зачем ставить NVIDIA в заведомо проигрышное положение, фактически "отключая" оптимизацию в драйверах ?

По поводу "стандартности". 32-х битный и 16-ти битный форматы NVIDIA куда более "стандартны", чем 24-х битный формат ATI. С 32-х битным форматом все понятно - это обычный IEEE формат, 16-ти битный float также распространен в индустрии - его используют ILM, например. 16-ти бит вполне достаточно для большинства вычислений (включая HDR рендеринг), а 32 бита используются там, где действительно нужна высокая точность. Для некоторых применений GPU (например, FFT, raytracing, матричная алгебра) 32-х битная точность вычислений абсолютно необходима, а 24-х бит недостаточно.

24-битный float - это временное решение. Дизайн будущих карт будет строится вокруг 32-х битный float'ов и в vertex- и в pixel-шедерных пайпах, что позволит сделать архитектуру более ортогональной, шейрить вычислительные мощности между ними и, в конечном итоге, стереть границу между вершинными и пиксельными шейдерами вообще. И у NVIDIA в этом плане УЖЕ есть технологическая база.

SOlO: Никто ничего "по-своему" не трактует. Можно или соответствовать спецификациям версии шейдеров 2.0, или не соответствовать им. Трактовать тут ничего нельзя. Возможность вычислений с пониженной точностью - совершенно стандартный "хинт" DX9, а принимать его во внимание или нет - это дело драйверов. И о какой медвежьей услуге Кармака идет речь ? О том, что он подталкивал производителей железа перейти на честную 32-bitную плавующую точку ? В таком случае - это не ложный путь, это путь совершенно верный. См. выше. Другое дело, что NVIDIA сделала это слишком рано...
carlos вне форума  
Ответить с цитированием
Непрочитано 15.12.2003, 14:54   [включить плавающее окно]   #12
SOLO
Мужской Недосягаемый
 
Аватар для SOLO
 
Регистрация: 06.05.2003
Адрес: Иркутск
carlos
Цитата
И о какой медвежьей услуге Кармака идет речь ? О том, что он подталкивал производителей железа перейти на честную 32-bitную плавующую точку ? В таком случае - это не ложный путь, это путь совершенно верный.
Именно о ней. Возможно я слишком резко выразился, назвав это "ложным путём", но суть такова, что если даже это решение было абсолютно верным и обоснованным (в чём я собственно и не сомневаюсь) с точки зрения удобства программирования и точности вычислений, то с точки зрения маркетинга это самый что ни на есть провал, иначе то что сейчас происходит не назовёшь. Потеря репутации конторы и отток клиентуры к конкурентам - что может быть хуже? Тем более когда формально они правы. Ведь тут на первом месте стоит экономическая целесообразность а не "правильность" технологии, а ATI в этом плане оказалась на голову выше nVidia. И для большинства юзверей твои объяснения - пустой звук, им куда важнее "попугаи" тестовых пакетов.
__________________
Добро всегда побеждает зло, поэтому кто победил - тот и добро.
SOLO вне форума  
Конфигурация ПК
Ответить с цитированием
Непрочитано 15.12.2003, 15:27   [включить плавающее окно]   #13
Zver
Мужской Автор 3DNews
 
Аватар для Zver
 
Регистрация: 18.02.2003
Все это шняга. Будет еще куча патчей, а в каждых новых дровах будут новые заточки под 3ДМарки... жаль, что нет этих заточек в играх... Всем рулит маркетинг и желание продать побольше и подороже.
Zver вне форума  
Ответить с цитированием
Непрочитано 15.12.2003, 15:35   [включить плавающее окно]   #14
White Wizard
Мужской Заслуженный
 
Аватар для White Wizard
 
Регистрация: 17.08.2003
Адрес: Chelyabinsk
Цитата
им куда важнее "попугаи" тестовых пакетов
Вот мнето и невожны попугаи а вожна стабильность и надёжность пока этим требываниям nVidia отвечает с лихвой, вот еслибы тест проводили с 32 битной точкой думаю рассановка сил резко поменялась, а маркетинговый ход nVidia был верным, просто производители ПО "кинули" nVidia с драйверами....вот они и пролетели...в очередной раз кто-то с кем-то вовремя договорился и всё...время покажет но по ка всё дружно занели выжидающие позиции,а nVidia надо отдать должное...даже когда всё заявили о 24 битах, nVidia перестроилась почти-что мигом(5700/Ultra,5950/5950Ultra)и с драйверами тоже разобрались...
__________________
Психиатор больному: Нет нормальных людей, есть необследованные
White Wizard вне форума  
Конфигурация ПК
Ответить с цитированием
Непрочитано 15.12.2003, 15:38   [включить плавающее окно]   #15
verger_of_senses
Мужской Опытный
 
Аватар для verger_of_senses
 
Регистрация: 01.11.2003
Адрес: Тамбов
2 SOlO
Цитата
юзаю свою GF3 которую приобрёл в славный "период застоя", когда nVidia была неприрекаемым авторитетом, а термина "заточка драйверов" ещё не было в природе
не совсем правда - достаточно вспомнить историю с тестом Nature и 3DMark2001:
Цитата (iXBT) »
Давайте посмотрим на хронологию "оптимизаций" нашего злополучного Nature. Итак: анонс и выход R200 — критика производительности шейдеров R200 на основе сравнения результатов данного теста с результатами NV20 — появление "оптимизаций" Nature в драйверах ATI. Выход R300 и такое же точно искусственное подтягивание "за уши" производительности в Nature — ответный удар NVIDIA в виде Detonator 40.xx, поднявшего скорость в том же самом злополучном тесте якобы за счёт возросшей производительности шейдеров… И, к сожалению, нет и не будет ни конца ни краю этой гонке
Цитата
Победит тот, кто сможет этой продукции больше ПРОДАТЬ, а это совсем не одно и то же
истина
2 mcArrow
Цитата
Я лично считаю, что надо их сравнивать в разных программах. Т.е. я хочу сказать, что т.к. ATI заточена под "спецификацию" DX9, ее и надо тестировать, хоть в том же 3DMark'е, а т.к. nVidia под "свой язык", то и надо найти "тестер" где реализованы все прелести тесто именно на Cg
и как же тогда сравнивать, если результаты будут получены в разных программах? К тому же писать игры под cg очень сложно, к тому же это не избавляет от необходимости писать под стандарт ДХ9, дабы пользователи АТИ (которых все больше и больше) тоже могли играть
Chaos
Цитата
На мой взгляд Ати могут сыграть такую же злую шутку с Нвидиа. Выпустить специальное рождественское издание драйверов содержащих точно такие же заточки. Тогда посмотрим как FX будет радеонам в пуп дышать
это будет гол в свои ворота - сейчас многие поддерживают АТИ за более честное отношение к пользователям
Rackot
Цитата
Не, не могут. У них нет возможности переключать точность работы. ATI может работать в DX9 только 24 bit. NVIDIA же 16 и 32 bit. И переключение между этими режимами все зовут "заточками"
не совсем так переключение между этими роежимами еще никто заточкой не назвал, а вот принудительное выставление 16-бит, вопреки установкам тестов и игр - да. Еще не надо забывать про подмену текста шейдеров, вот тут уже у энВидии просто нет шансов оправдаться
insanio
Цитата
со всей этой суетой, НВидиа, пусть даже она и абсолютно права, выглядит менее достойно, чем АТИ
доаольно странное высказывание - как абсолютно правый может выглядеть менее достойно? И в чем скажи на милость эта правота?
carlos
Цитата
Называть все это cheating'ом со стороны NVIDIA - неправильно. Какая разница, с какой точностью проводятся вычисления, если визуально качество при этом не страдает ?Использовать float вместо double в C-коде - это читинг ? (разумеется, при условии что точности float'а достаточно для данной задачи)
Цитата
Да, драйвера NVIDIA меняют точность вычислений, меняют куски кода в шейдерах и изменяют порядок инструкций. До тех пор, пока это не сказывается на качестве изображения - это не cheating, это совершенно законные оптимизации
разумеется пока визуально отличий нет - все хорошо, но что делать если они есть? А ведь так зачастую и бывает. К тому же если заточку под игры я еще могу признать в некоторых случаях имеющей право на жизнь, то заточки под марки - совершенно недопустимы - ведь этот прирост не будет отражать ситуаию в реальных играх, которые затачивать все под себя у энВидии просто не хватит времени - они выходят каждый день
Цитата
По поводу "стандартности". 32-х битный и 16-ти битный форматы NVIDIA куда более "стандартны", чем 24-х битный формат ATI
по поводу стандартности.. все же СТАНДАРТ дх9 подразумевает использование 24-бит, так что АТИ упрекнуть не в чем.
П.С. Сорри если я где перепутал имена или допустил орфографические ошибки

verger_of_senses добавил :

White Wizard
Цитата
вот еслибы тест проводили с 32 битной точкой думаю рассановка сил резко поменялась, а маркетинговый ход nVidia был верным, просто производители ПО "кинули" nVidia с драйверами
ты суть не улавливаешь - фишка в том, что 32 бита толком никому (пока) и не нужны. А как понимать
Цитата
производители ПО "кинули" nVidia с драйверами
? Драйверы-то делают не производители ПО, а энвидиа.
А почему мне так трудно войти на форум - наплыв пользователей?
__________________
Невыносимых людей нет - есть узкие двери
verger_of_senses вне форума  
Конфигурация ПК
Ответить с цитированием
Непрочитано 15.12.2003, 16:34   [включить плавающее окно]   #16
SOLO
Мужской Недосягаемый
 
Аватар для SOLO
 
Регистрация: 06.05.2003
Адрес: Иркутск
verger_of_senses
Цитата
Давайте посмотрим на хронологию "оптимизаций" нашего злополучного Nature. Итак: анонс и выход R200 — критика производительности шейдеров R200 на основе сравнения результатов данного теста с результатами NV20 — появление "оптимизаций" Nature в драйверах ATI. Выход R300 и такое же точно искусственное подтягивание "за уши" производительности в Nature — ответный удар NVIDIA в виде Detonator 40.xx, поднявшего скорость в том же самом злополучном тесте якобы за счёт возросшей производительности шейдеров… И, к сожалению, нет и не будет ни конца ни краю этой гонке
Так вот покупалась карта ДО описываемых событий. И максимальной производительности карта достигает на старом добром Detonator 30.82WHQL а не на 40.xx. Самая интересная строчка:
Цитата
появление "оптимизаций" Nature в драйверах ATI.
__________________
Добро всегда побеждает зло, поэтому кто победил - тот и добро.
SOLO вне форума  
Конфигурация ПК
Ответить с цитированием
Непрочитано 15.12.2003, 16:38   [включить плавающее окно]   #17
carlos
Новенький
 
Регистрация: 15.12.2003
Адрес: Moscow
verger_of_senses

Цитата
не совсем так переключение между этими роежимами еще никто заточкой не назвал, а вот принудительное выставление 16-бит, вопреки установкам тестов и игр - да. Еще не надо забывать про подмену текста шейдеров, вот тут уже у энВидии просто нет шансов оправдаться
"Подмена" текстов шейдеров - совершенно нормальная оптимизация, если функционально код выполняет одно и то же. Пример - драйвер может обнаружить в шейдере вычисление синуса рядом Тэйлора (несколько инструкций) и заменить на одну инструкцию, которая поддерживается FX'ами нативно. Где здесь читинг ? Ясно, что всегда можно замаскировать эти вычисления таким образом, что драйвер их не зафиксирует (чем, собственно, и занимается патч 340).

Цитата
разумеется пока визуально отличий нет - все хорошо, но что делать если они есть? А ведь так зачастую и бывает. К тому же если заточку под игры я еще могу признать в некоторых случаях имеющей право на жизнь, то заточки под марки - совершенно недопустимы - ведь этот прирост не будет отражать ситуаию в реальных играх, которые затачивать все под себя у энВидии просто не хватит времени - они выходят каждый день
Это не заточки под марки, эти "заточки" будут работать и в других приложениях.

Цитата
по поводу стандартности.. все же СТАНДАРТ дх9 подразумевает использование 24-бит, так что АТИ упрекнуть не в чем.
Стандарт DX9 ничего не _подразумевает_, стандарт устанавливает ... э-э стандарт . Есть требование, согласно которому вычисления в full-precision mode должны производиться с точностью _минимум_ 24-бита. И есть возможность указать хинт (т.е. не обязательное для выполнения указание), что вычисление можно произвести с меньшей точностью. И радеоны, и FX'ы этому стандарту полностью соответствуют.
carlos вне форума  
Ответить с цитированием
Непрочитано 15.12.2003, 17:34   [включить плавающее окно]   #18
verger_of_senses
Мужской Опытный
 
Аватар для verger_of_senses
 
Регистрация: 01.11.2003
Адрес: Тамбов
carlos
Цитата
"Подмена" текстов шейдеров - совершенно нормальная оптимизация, если функционально код выполняет одно и то же
опять же.. если бы так и было я бы был только рад, но к сожалению подмененный код делает совершенно не то что делал исходный. В тысясный раз привожу линк: http://www.ixbt.com/video2/antidetect.shtml - читай2 внимательно и без эмоций и все поймешь
Цитата
Это не заточки под марки, эти "заточки" будут работать и в других приложениях.
опять же не прав. читай вышеуказанный линк (меня ломает в каждой теме писать одно и тоже, и вобще я уже опаздал на день рождения брата)
П.С. Все. ухожу, вернусь после полуночи
__________________
Невыносимых людей нет - есть узкие двери
verger_of_senses вне форума  
Конфигурация ПК
Ответить с цитированием
Непрочитано 15.12.2003, 18:15   [включить плавающее окно]   #19
carlos
Новенький
 
Регистрация: 15.12.2003
Адрес: Moscow
verger_of_senses

Читал я это все. Драйвера 44.xx - отдельная история. Эти драйвера вышли вскоре после выхода NV35, и действительно содержали некорректные "заточки". Я согласен, что этого не стоило бы делать. С ними было много и других проблем. Необходимо было быстро продемострировать производительность FX'ов, чтобы успокоить покупателей, поскольку сделать нормальный run-time optimizer за такой короткий срок было нереально.

Оптимизации, выполняемые драйверами серии 50.xx - это не просто замена одних шейдеров на другие. Архитектура NV3X очень чувствительна к таким вещам, как, например, порядок следования арифметических и текстурных инструкций, кол-во используемых шейдером регистров и т.д. Изменение порядка следования инструкций (если, естественно, это не разрушает функциональность кода), агрессивное повторное использование регистров может увеличить скорость выполнения шейдера. Драйвер, анализируя код шейдера, может замапить часто встречающиеся паттерны инструкций на более эффективные нативные эквиваленты. И это не зависит от конкретного приложения, такие оптимизации будут работать и увеличивать производительность везде.
carlos вне форума  
Ответить с цитированием
Непрочитано 15.12.2003, 20:04   [включить плавающее окно]   #20
soitaa
Мужской Опытный
 
Аватар для soitaa
 
Регистрация: 25.10.2003
Адрес: Киев
ой ребятки проблема вся в ..........цифрах и цифры -показатель производительности (логика??) все дело в том что какую карточку не возьмете она вам прослужит верой и правдой годик как минимум точно и независит это от того это ли radeon 9800 либо radeon 9200 (с nvidia такая же история ) и лутше покупать карточки до 100 американских рублей а как нибудь попозже еще среднюю карточку среднего поколения а заточки ? да фиг с ними они особой погоды не делают по крайней мере мне -пользователю а если моя видяшка чегото не держит в ход идет software на даный момент лутшей карточкой я бы назвал ti4200-4800 хоть она и не держит ваш этот преславутый микромелковский DX9 но покажте хоть одну игруню которая прижмет эту картинку к стенке????
__________________
Жизнь штука сложная.....Но я ее люблю.....
Все события, которые случаются с тобой, все люди, которые тебя окружают, появляются в твоей жизни потому, что ты притянул их туда. Что делать с ними дальше,
soitaa вне форума  
Конфигурация ПК
Ответить с цитированием
Ответ Создать новую тему

Опции темы
Опции просмотра

Ваши права в разделе
Вы не можете создавать новые темы
Вы не можете отвечать в темах
Вы не можете прикреплять вложения
Вы не можете редактировать свои сообщения

BB коды Вкл.
Смайлы Вкл.
[IMG] код Вкл.
HTML код Выкл.

Быстрый переход


Текущее время: 19:08. Часовой пояс GMT +3.


Powered by vBulletin® Version 3.8.4
Copyright ©2000 - 2021, Jelsoft Enterprises Ltd. Перевод: zCarot
Copyright © 2000-2017 3DNews. All Rights Reserved.
Администрация 3DNews требует соблюдения на форуме правил и законов РФ
Серверы размещены в Hostkey