Índice
Introducción
Capítulos
p. 4
1. El mundo del CGI (Computer-generated imagery) 3D p. 9
1.1 Los múltiples inicios del mundo 3D generado
por computadora. p. 91.2 Dos dimensiones antes de tres. p. 10
1.3 El CGI en tres dimensiones se abre camino. p. 13
1.4 Las tres dimensiones rompen barreras.
1.5 Un nuevo milenio con nuevos estándares.
1.6 La preparación y el lanzamiento del futuro
3D.
p. 23
p. 34
p. 432. Qué es la percepción visual
2.1 La percepción visual, el hombre y el mundo
que lo rodea.
2.2 Modelos de la percepción visual.
2.3 La teoría de la Gestalt.
p. 47
p. 47
p. 48
p. 503. La forma
3.1 El acto de ver.
3.2 La forma y la experiencia previa.
3.3 La simplicidad.
3.4 Aplicación práctica de la forma en un medio
tridimensional.
p. 54
p. 54
p. 55
p. 57
p. 59
4. El espacio
4.1 El espacio y la ruptura del plano.
4.2 Condiciones de la figura en un conjunto
p. 63
p. 63
1
estructurado de figura y fondo.
4.3 Aplicación práctica de la relación
figura/fondo y texturas en un medio
tridimensional.
p. 65
p. 695. La luz
5.1 La luz como elemento espectacular de la
vida.
5.2 La claridad relativa y la iluminación.
5.3 Las sombras.
5.4 Aplicación práctica de las fuentes luminosas
y las sombras en un medio tridimensional.
p. 73
p. 73
p. 75
p. 77
p. 796. El color
6.1 Las reacciones al color.
6.2 La sensación y la expresión que manifiestan
los colores.
6.3 Aplicación práctica de los colores y sus
preferencias en un medio tridimensional.
p. 82
p. 82
p. 84
p. 85Conclusiones
Referencias bibliográficas
p. 87
p. 90Bibliografía p. 91
Índice de figuras
1. Esquema polar del funcionamiento de un sistema
de render. p. 112. Malla o estructura de una cara humana. p. 14
2
3. La radiosidad y la propagación del haz de luz. p. 17
4. Andy Serkis actúa una escena con un traje de
motion-capture. p. 305. Superficie blanca con cortes. p. 64
6. Discos realzados por texturas. p. 68
7. Comparación de tipos de mapeo. p. 72
8. Orientación de las sombras. p. 78
Introducción
Como explica Rudolf Arnheim (1992) en su libro Arte y
percepción visual: psicología del ojo creador, el concepto
visual de un objeto que posea volumen solo es representable
mediante un espacio tridimensional. Si se quiere realizar un
trabajo en un medio de dos dimensiones lo más que puede
lograrse es una traducción, solo plasmar algunos elementos
3
estructurales esenciales del concepto visual.
Manejar un software de creación de gráficos y animaciones 3D
permite una infinita utilización de todos los aspectos de la
realidad, manteniéndolos o alterándolos, como mejor se crea
posible, tanto y en cuanto sea útil para el fin propuesto.
Se está hablando de generar objetos con formas fotorrealistas
completamente fantásticas, iluminarlos dinámicamente desde
varias locaciones y regular los parámetros físicos de la luz,
así como de las sombras generadas, todo con fines estéticos,
expresivos y/o comunicativos, alterar los colores voluntad,
sus valores y saturaciones, controlar las reflexiones y
refracciones de los elementos modelados, incluso poner todo
en movimiento, entre otros recursos, y no solo estamos frente
a un manejo íntegro de lo que en el arte pictórico se
denomina “figura”, sino también del “fondo”. Generar un
entorno igual de alterable que albergue todo lo posiblemente
generable mediante el software, con todas las mismas
posibilidades recién mencionadas.
Para adquirir un manejo de este tipo de software hay dos
caminos de aproximación posibles que se ven en el ámbito
educativo. Un primer acercamiento leve o limitado por la
falta de especificidad técnica que se requiere, de parte de
carreras universitarias como Diseño Audiovisual, Diseño
Gráfico o E-Design, donde se aborda el tema de diseño
tridimensional mediante software de creación de gráficos y
4
animaciones solo como una aproximación introductoria, para
que luego sea el alumno quien decida profundizar por su
cuenta, o no, sobre el mismo. Y un segundo acercamiento
limitado por la falta de una base teórica firme y un espíritu
crítico observador, posible por ejemplo al cursar una carrera
extensa como las anteriormente mencionadas en el caso
inverso, que fomentan el diseño íntegro de múltiples piezas,
visuales y audiovisuales. Este último caso se da en alumnos
de cursos terciarios breves en donde por cuestiones de tiempo
solo se explica lo puramente técnico.
El objetivo principal del presente Proyecto de Graduación es
conformar un escrito capaz de brindarle a todo diseñador
audiovisual una base teórica de importancia sobre la
percepción visual, centrada objetivamente en su
implementación para un medio tridimensional. Y en caso de
necesitarlo, a la par de los diferentes temas tratados al
respecto, incorporar las herramientas más esenciales y de
relevancia para conseguir de forma práctica reforzar los
principios abordados. Un solo documento capaz de instruir al
desarrollador práctico fanático de la imaginería en tres
dimensiones en los temas teóricos de más relevancia para sus
trabajos, y al diseñador audiovisual en los aspectos más
técnicos de sus conocimientos ya aprendidos a lo largo de su
cursada universitaria.
El PG ve ubicado en el área de Ensayos, debido a qué se
5
centrará básicamente en la escritura, haciendo hincapié en la
teoría sobre el arte y la percepción visual, como herramienta
primordial en el desarrollo de cualquier trabajo audiovisual
y visión creadora.
Se reflexionará mediante una doble mirada, objetiva y
subjetiva, se establecerá una visión teórica y reflexiones
personales sobre cada trayecto. Por otro lado, bordeará
elementos de la categoría de Proyectos Profesionales, ya que
comprender una herramienta compleja como es el modelado
tridimensional y utilizarlo con habilidad de un diseñador
creador es un paso importante para todo aquel que desee
incursionar en esa rama laboral. Los temas tratados de la
percepción en cuanto a los objetos serán la forma y los
conceptos preceptúales, las proyecciones y el concepto de los
sólidos, el realismo, el medio en que se realiza el proyecto,
conceptos representativos.
El espacio, figura y fondo y niveles de profundidad. La luz y
su infinita utilidad, la iluminación y la creación del
espacio por la luz, las sombras y su contribución a la
sensación de tridimensionalidad. El color, sus elementos
constitutivos.
Al momento de plantearse orquestar un ensayo sobre el mundo
de las tres dimensiones y la base teórica necesaria para
navegar con habilidad por él, es necesario ahondar en los
comienzos mismos de dicha mundo. Entender desde qué lugar y
6
área de la computación nace, quiénes fueron sus precursores e
innovadores y comprender el vertiginoso ascenso en el nivel y
calidad de producción de la industria cinematográfica de
películas animadas. Dejar atrás el marco de los videojuegos,
tanto del punto de vista de la computación como de las
consolas.
Hablar de tres dimensiones remite de forma ineludible a
hablar de la percepción visual. Ya que es ésta la que le
permite al hombre captar la realidad de dicha forma. A lo
largo de la historia se desarrollaron un sinnúmero de teorías
al respecto, a fines de simplificar la lectura se parte de la
concepción de los principios de la Gestalt ya que estos son
los que poseen las ejemplificaciones más notorias y en el
ámbito académico del arte es probablemente la que conocerá la
mayoría de estudiantes.
Los diferentes elementos que componen una escena en tres
dimensiones son abarcados y analizados de acuerdo al enfoque
psicológico y analítico de Rudolf Arnheim (1982), psicólogo y
filósofo alemán, gran teórico de la teoría de la
comunicación. Estos elementos como la forma, los colores, las
sombras, el espacio, la luz y otros, son tratados con la
mayor objetividad y análisis posible, fruto de una gran
recopilación bibliográfica al respecto.
En la actualidad, como se expuso anteriormente, existe un
desbalance en la formación de los desarrolladores en tres
7
dimensiones, y no se conocen libros o manuales de importancia
que traten esta problemática buscando reforzar a estas
personas, debido quizás a la relativamente nueva área del
diseñado audiovisual y el desarrollo 3D. Es por estas
cuestiones que mediante el presente Proyecto de Graduación se
busca añadir un pequeño grano de arena con el fin de mejorar
al diseñador recién iniciado.
Capítulo 1
El mundo del CGI (Computer-generated imagery) 3D.
1.1 Los múltiples inicios del mundo 3D generado por
computadora.
Antes de adentrarse en el desarrollo principal de este
Proyecto de Graduación, el cual establecerá los parámetros
8
fundamentales del arte y la percepción visual necesarios para
desarrollar con maestría un producto en tres dimensiones, es
necesario comprender cómo nace el mundo del CGI (Computer-
generated imagery o Imagen generada por ordenador) y su
importancia. En el cine; desde las primeras imágenes 3D
vistas en el séptimo arte, la secuela de la película
Westworld (1973), Futureworld (1976), pasando por momentos
cumbre como los dos primeras largometrajes realizados
completamente mediante el uso de software de modelado y
render, Toy Story (1995) de Pixar y Cassiopéia (1996) de NDR
Filmes, hasta la actualidad. En los videojuegos; los
comienzos con la revolucionaria consola de videojuegos
Playstation, la cual poseía un chip aparte del CPU que
funcionaba como un acelerador gráfico, permitiendo por
primera vez la aparición de los gráficos 3D en este ámbito,
hasta los juegos híper-realistas que se ven día a día como
Call of Duty (2008) o Crysis (2008).
1.2 Dos dimensiones antes de tres.
El primer gran avance en pos de la generación de elementos en
tres dimensiones se dio en la Universidad de Utah, una
universidad pública ubicada en Salt Lake City, Utah, Estados
Unidos, por personas como Ed Catmull, Jim Clark y Dave Evans
que formaban parte de dicha institución, quienes vieron las
computadoras como la progresión natural de la animación
9
tradicional, y quisieron ser parte de esta revolución. Este
primer paso mencionado es la generación del algoritmo de
superficie oculta, necesario para poder representar un objeto
en tres dimensiones en una computadora. Debido a que ésta
última debe determinar qué superficies están detrás del
objeto o elemento modelado, desde la perspectiva del
observador, las cuales serán ocultas al momento de crear o
renderizar la imagen. La siguiente figura ayuda a entender la
importancia de este algoritmo que supuso para la creación de
las imágenes en tres dimensiones.
Figura 1: Esquema polar del
funcionamiento de un sistema de render.
Fuente: Elaboración propia.
Un sistema de render por barrido o scanline, tanto en su
inicio como en la actualidad, genera la visualización de un
10
objeto en tres dimensionas a partir de escaneos de todos los
píxeles de la imagen, un barrido a la vez. En la Figura 1
estos scanline son S1, S2 y S3. El primero, es decir S1, solo
se encuentra con dos lados, L1 y L2, de la primera figura,
lidiando solo con ésta. El siguiente, S2, debe lidiar con L6
y L5 de la figura de la derecha, que se encuentra por encima
de la otra, y con L3 y L1. En esta situación el algoritmo de
superficie oculta debe calcular ambos objetos para
representarlos en pantalla, pero sin presentar problemas de
profundidad. En el tercer scanline los lados atravesados son
L6, L5, L1 y L3. Es en L3 donde se produce el inconveniente
de la profundidad de la escena, es decir el eje Z, ya que
este L3 se encuentra detrás de la figura de la derecha y es
aquí donde el algoritmo de superficie oculta toma relevancia.
En 1973, la película Westworld contiene el primer
acercamiento de los gráficos generados por computadora en el
séptimo arte. Una película de ciencia ficción y western
dirigida y escrita por Michael Crichton, la cual trata sobre
un parque de atracciones del futuro para gente adinerada, en
donde éstos pueden elegir el momento en la historia que
quieren visitar, logrado a través de robots que satisfacen
sus necesidades. Los protagonistas eligen el lejano oeste y
luego de un error en el sistema se ven perseguidos por un
robot pistolero. A pesar del bajo presupuesto que se manejó
para la realización del filme, la visión futurista del
11
director fue la que permitió utilizar por primera vez las
computadoras como generadoras de imágenes. Solo podemos ver
unos efectos en dos dimensiones, una especie de filtros que
le permiten al robot detectar el rastro de los protagonistas,
un pixelado digital que da una idea de futurismo que el
espectador podía asociar con facilidad, incluso dando una
apariencia primitiva de lo que fue la visión de calor que
vemos en la criatura de la película Predator (1987).
1.3 El CGI en tres dimensiones se abre camino.
Solo tres años más tarde, en 1976 aparece la primera
aparición de los efectos visuales generados en una película
mediante un desarrollo en tres dimensiones con el
largometraje Futureworld, secuela de la nombrada en el
párrafo anterior. En esta película se ven los dos primeros
modelos tridimensionales construidos por computadora en
llegar al cine. En la pantalla de una computadora de un
laboratorio se encuentran girando la mano y la cabeza del
personaje de Peter Fonda. Incluso son visibles los vértices
que componen las mallas de estas partes del cuerpo, cómo
están modeladas. El concepto de malla será desarrollado
brevemente más adelante, cuando sea el turno de la parte más
técnica del Proyecto de graduación, por ahora el lector solo
necesita saber que es el nombre que recibe el modelo generado
12
por computadora del objeto representado, su estructura. En la
siguiente figura tenemos un ejemplo de este término.
Figura 2: Malla o estructura de una
cara humana. Fuente: Elaboración propia.
Un gran paso dado por la industria del CGI en tres
dimensiones en ese mismo año es la invención del mapa bump
(en el idioma castellano significa protuberancia), sobre el
cual el Proyecto de Graduación hará hincapié en futuros
capítulos respecto de su infinita importancia. Vale decir,
entonces que en síntesis es un mapa asignado a un objeto el
cual permite generar unas falsas protuberancias sobre el
mismo que responden a la luz como lo haría la imperfecciones
generadas, por ejemplo, de un suelo rocoso, utilizando
únicamente un archivo de imagen, obviando de esta forma el
trabajo del modelador de producir manualmente estas
13
imperfecciones, ahorrando muchísimo tiempo.
Una mención importante, y antesala a las primeras películas
hechas en un cien por ciento en tres dimensiones es Tron
(1982), una película de ciencia ficción producida en los
estudios Walt Disney Productions y trata sobre las aventuras
de un talentoso programador que se sumerge dentro de una
computadora donde todos los programas de la misma tienen vida
y una personalidad propia. Esta es la primera vez que los
gráficos generados por computadora en tres dimensiones tienen
un papel protagónico en una película, siendo parte activa de
la trama y el entorno que rodea a los personajes, aquí
podemos ver vehículos, estructuras y otros objetos modelados,
al igual que algunos escenarios. A pesar de que Tron fue un
fracaso de taquilla debido a varios factores, siendo el
principal inconveniente la deficiente historia contada en la
misma, sirvió como base para demostrar el alcance de los CGI
en tres dimensiones. Otro aspecto importante respecto a Tron
es la utilización del concepto de renderizar mediante una
granja de computadoras, lo que se conoce como juntar un
numeroso grupo de procesadores con el fin de generar las
secuencias en tres dimensiones en paralelo, trabajando todos
en simultáneo y mejorando el tiempo requerido para obtener el
producto final.
Hasta el año 1984 todas las formas de iluminar un objeto o
escena modelada en tres dimensiones estaban basadas
14
exclusivamente en la iluminación incidental, en donde una
fuente de luz brilla de forma directa sobre una superficie.
Este método representaba un problema al momento de lograr un
cierto nivel de realismo, debido a que toda fuente de luz
consigue iluminar solo aquel objeto que se encuentra en línea
directa con ella, dejando en completa oscuridad todo aquello
que no lo está. Esto se debe a que el haz de luz emitido por
toda fuente lumínica en los software de esa época no variaban
su recorrido y ni generaban rebotes de acuerdo a las
superficies que alcanzaban, como sí lo hacen en la realidad,
casi toda la luz que vemos a nuestro alrededor es difusa o
reflejada por otros objetos. Para resolver este inconveniente
que se interponía ante los desarrolladores 3D, se inventó un
nuevo método de renderizado llamado Radiosidad, en la
Universidad Cornell de Ithaca, Nueva York, Estados Unidos,
por Cindy Goral, Don Greenberg y otros programadores. Este
método usa las mismas fórmulas que simulan la forma en que el
calor se propaga a través de una habitación para determinar
cómo la luz es reflejada en las superficies. Lo que permitió
conseguir una forma bastante fiel de representar la luz y su
comportamiento, como resultado las diferencias entre áreas
iluminadas y no iluminadas se volvió más fiel a lo que
acontece normalmente en la realidad.
15
Figura 3: La radiosidad y la
propagación del haz de luz.
Fuente:
http://www.salle.url.edu/~jherrer
o/Autodesk%20VIZ%204.htm
El poder de la Radiosidad constituyó un paso importante en la
historia del modelado tridimensional, ya que como se verá más
adelante, la luz posee múltiples herramientas para lograr su
correcto uso.
A fines de los años ochenta, específicamente en 1989,
curiosamente se da el mejor cierre posible para la industria
del CGI en tres dimensiones, en una década que cimentó las
bases de este campo para todo lo que acontecerá hasta la
actualidad y marcó un estándar de calidad a seguir. La
película The Abyss, escrita y dirigida por James Cameron,
llega al estreno en todo el mundo, y a pesar de una mezcla de
16
buenas y malas críticas recibe el Oscar a Mejores
efectos/Efectos visuales por la Academy Awards, Estados
Unidos. Esta fue la primera vez que se le dio un premio a
este tipo de post-producción, y así le corresponde
efectivamente, debido a la complejidad que llevó dicho
proceso y al sorprendente resultado adquirido finalmente. En
la película puede apreciarse una escena de setenta y cinco
segundos, que necesitó seis meses de trabajo de trabajo CGI,
en donde se puede ver el primer efecto de agua en tres
dimensiones aplicado a un ser acuático sobrenatural, el cual
toma forma de una cara humana, un resultado altamente
realista para la época, nunca antes visto algo semejante.
Esta forma de realización en donde se utilizan gráficos
generados por computadora en tres dimensiones para
implementar en filmaciones de escenas reales consiste un
punto importante a tratar en un próximo subcapítulo de este
proyecto de graduación.
Los años noventa fueron una etapa de ampliación infinita de
horizontes para la industria de los CGI, la que brindó
algunos de las escenas más sorprendentes hasta la actualidad.
En 1991, esta fase de ampliación comienza con Terminator 2:
Judgment Day, del director James Cameron, cambiando la forma
en que se perciben los gráficos generados por computadora.
En esta película puede verse al personaje T-1000, un robot
que podía cambiar la forma de su cuerpo a voluntad como si
17
fuese un líquido, transformándose de forma completa o parcial
en cualquier cosa o persona que desee. Esta herramienta se
denomina morphing, permite alternar la estructura y
composición de un objeto en otro completamente diferente de
forma gradual y visible. El T-1000 de Terminator 2 fue el
primer personaje de relevancia generado por computadora. La
película logró no solamente un gran nivel de realismo, sino
que dicha producción fue realizada en tiempo y sin superar el
presupuesto determinado en un principio. La producción total
de la película requirió la exorbitante suma de cien millones
de dólares y logró superar la suma de quinientos millones,
mundialmente. Un éxito rotundo como éste no pasó
desapercibido en el mundo del CGI, subiendo los niveles de
calidad que debe alcanzar el resto de la industria de aquí
en más. Una breve mención en el Proyecto de Graduación dentro
del campo de la iluminación merece la película animada Beauty
and the Beast (1991), a pesar de estar hecha mayoritariamente
en dos dimensiones, es decir animación tradicional, varios
escenarios fueron realizados en tres dimensiones.
Destacándose principalmente la escena del baile entre los
protagonistas, en donde se implementó un escenario realista y
un candelabro de cristal con ciento cincuenta y ocho luces
simulando velas reales.
A principios de los años noventa Steven Spielberg empezó a
trabajar la versión de para cine del best seller de Michael
18
Crichton, Jurassic Park. Debido a que la película mostraría
dinosaurios persiguiendo gente, luchando y desplazándose por
vastos territorios, la creación de los mismos representó un
gran desafío. En un comienzo Spielberg decidió crear los
dinosaurios de la forma tradicional, mediante el uso de
modelos robóticos a escala completa. Luego de hacer varias
pruebas de esta forma, los resultados eran correctos, pero no
deslumbraban. A la par, la empresa ILM, dedicada a generar
efectos visuales y CGI en tres dimensiones, fundada por
George Lucas, hizo sus propias pruebas con dinosaurios con
una escena que Spielberg había decido eliminar debido a que
consideraba que no sería posible generarla por medio
tradicionales, en donde debía verse una estampida de
dinosaurios, todos corriendo. Los resultados fueron
sorprendentes, ILM logró convencer a Spielberg de que los
modelos generados por computadora en tres dimensiones eran la
mejor opción para su película, así lo fue. Más de cincuenta
tomas tuvieron modelos en 3D, gigantesca producción pudo
verse reflejada en el éxito que tuvo la película, lo que le
valió a Jurassic Park tres premios Oscar, entre ellos Mejores
efectos/Efectos visuales y la convirtió en la película más
recaudadora de la historia hasta ese momento.
Entre 1993 y 1994 acontecen algunos sucesos importantes. En
la industria de los videojuegos era lanzado Myst, el primer
juego en contener escenarios totalmente generados en tres
19
dimensiones el cual presentaba los primeros escenarios
generados en tres dimensiones de un gran realismo. El único
inconveniente era que éstos no estaban generados en tiempo
real, como se consiguió hacer más adelante manteniendo los
mismos niveles de realismo, los entornos eran imágenes fijas,
previamente creadas e incorporadas en el juego. Tal fue el
éxito del visualmente revolucionario Myst que en 1998, cinco
años más tarde de su lanzamiento, se consagró como el juego
más vendido hasta ese momento. Otro suceso surge desde la
televisión de Canadá, la compañía Mainframe Entertainment
crea la primera serie animada completamente generada por
computadora en tres dimensiones. Reboot estuvo en el aire
desde 1994 y 2001. A pesar de no contener un gran nivel de
realismo en los modelos, la iluminación y la texturización,
debido a que generar una serie de capítulos que deben ser
transmitidos en bases regulares de tiempo presume una inmensa
cantidad de tiempo de renderizado, Reboot marcó un hito en
cuando a la novedad del formato en que eran presentados estos
gráficos generados por computadora en tres dimensiones.
Si hay un año que supone un quiebre en el mundo del CGI 3D,
ese es el año 1995. Con el lanzamiento de la primera película
animada generada en un cien por ciento mediante el uso del
CGI en tres dimensiones, Toy Story. Esta película animada
estableció a Pixar como la empresa número uno en el mundo del
CGI por haber logrado realizar el primer largometraje de
20
estas características. Toy Story fue nominada a tres premios
Oscar por la Academy Awards, de los cuales no consiguió
ninguno. Sin embargo, para entender la magnitud histórica de
una película como está, John Lassetter, director y escritor
de la película y animador y director creativo de los estudios
Pixar de animación, recibió un Oscar honorífico el desarrollo
y la aplicación inspiradora de técnicas que hicieron posible
el primer largometraje animado por computadora. Toy Story
tiene un elemento que la pondrá por mucho tiempo hasta la
actualidad sobre el resto de las películas animadas y esto es
una historia maravillosa que va de la mano con lo logrado
desde el apartado técnico en la película. Toy Story logró
unificar todos los conceptos, experiencias y tecnologías
sobre iluminación, modelado, texturización, renderizado y
animación hasta ese momento. Lo que la convierte en un
perfecto elemento de análisis para futuros animadores de
largometrajes.
Si Toy Story fue un punto de quiebre para la animación en
tres dimensiones en el cine, el lanzamiento de la consola de
juegos Playstation fue un punto de partida para el mundo de
los videojuegos. Antes de la Playstation, no existía nada que
permitiera llevar los gráficos en tres dimensiones al campo
de los juegos de la forma masiva que lo hizo esta consola.
Sony Computer Entertainment lanzó la Playstation en Japón en
el año 1994 y mundialmente lo hizo en el año 1995. Antes del
21
lanzamiento de Sony, las consolas solo permitían presentar
juegos en dos dimensiones, pero la Playstation, contenía un
chip, aparte del microprocesador principal, que era la
encargaba de procesar los gráficos en tres dimensiones de los
nuevos juegos, funcionando como una placa de video como las
que usan las computadoras hoy en día, un chip capaz de
generar trecientos sesenta mil polígonos por segundo.
1.4 Las tres dimensiones rompen barreras
Luego de Toy Story, y podría decirse que hasta la actualidad,
los gráficos generados por computadora en tres dimensiones se
volvieron una regla dentro del cine en la mayoría de las
grandes producciones, algo con lo que casi todo largometraje
debía contar para convertirse en un éxito de venta, en vez de
ser una verdadera necesidad y herramienta creativa. Como
suele suceder, este tipo de premisas llevan al estancamiento
artístico y acostumbramiento por parte de los espectadores.
Aun así, siempre hay excepciones, y tan solo dos años después
del lanzamiento de Toy Story, en 1997, Titanic surgió para
subir nuevamente los estándares de calidad en la producción
de las tres dimensiones. Titanic, escrita y dirigida por
James Cameron, usó una combinación de modelos de personajes y
entornos en tres dimensiones y efectos generados por
computadora para crear una visión realista del histórico
navío Titanic y su dramático hundimiento. Este largometraje
22
introdujo directa o indirectamente con su hiperrealismo la
idea del CGI 3D discreto, es decir que se alcanzó un nivel
tan alto de realismo en los modelos en tres dimensiones
generados que estos pasaban desapercibidos tanto para el
espectador común como para el entrenado, por ejemplo en los
escenarios como el agua, el cielo y en los objetos como el
propio Titanic y la gente que se encontraba arriba del mismo.
Probó que el CGI 3D había evolucionado enormemente, trayendo
consigo un éxito de taquilla. El costo de la película fue de
dos cientos millones de dólares y recuperando tan solo en
Norte América seis cientos millones. Titanic se vuelve un
elemento importante de ejemplificación de la correcta
implementación del arte y la percepción en orden del correcto
uso del software 3D en el presente PG.
A fin de resumir y mantener práctica la introducción al CGI y
su desarrollo, el siguiente salto aterriza en el año 2001.
Hasta este año, el campo de los largometrajes generados en un
cien por ciento en tres dimensiones le pertenecía a Pixar,
pero eso cambia con el estreno de Shrek. El filme logró una
excelente implementación de modelos en tres dimensiones con
un intensivo uso de texturas realistas, pelo, lodo, tierra y
muchos otros, que destacaron de previas utilizaciones en
otras películas, siendo la primera película de esta índole en
recibir el premio de la Academy Awards a Mejor película
animada. Otro elemento importante en Shrek es la unión entre
23
un sólido guión efectista y una muy correcta animación en
tres dimensiones, como sucedió con Toy Story.
La industria de los videojuegos para computadora tuvo en el
año 1996 un importante lanzamiento de la mano de la compañía
desarrolladora id Software originaria de Mesquite, Texas,
considerada una de las empresas de videojuegos más
influenciadotas de la actualidad y creadora de juegos
legendarios de antaño como Doom y Return to castle
Wolfestein. Dicho lanzamiento fue el de Quake, éste supo
revolucionar todo un género de juegos para computadora. A
pesar de poseer gráficos en tres dimensiones generados en
tiempo real, a diferencia de otros contemporáneos, no
precisaba una placa aceleradora de gráficos, lo cual le
permitió alcanzar niveles de ventas y aceptación muy altos.
Todos los aspectos de este sólido juegos estuvieron muy
cuidados. El apartado técnico de Quake popularizó varias
técnicas de desarrollo en tres dimensiones; el uso de modelos
poligonales en lugar de gráficos ya renderizados, mundos
generados íntegramente en 3D y el uso de la iluminación pre-
renderizada. La música fue realizada por el músico Trent
Reznor, del grupo Nine Inch Nails, ícono de la música escura
y electrónica. Y el aspecto más importante y revolucionario
que fue el de la jugabilidad en multiplayer a través de
Internet, permitiéndolo a jugadores de todo el mundo
participar en una misma partida simultáneamente. Id Software
24
es la única compañía de desarrollo de videojuegos premiada
dos veces con un Premio Emmy por su desarrollo de las tres
dimensiones como base para todo el género de juegos de acción
en primera persona.
Tiempo después de la salida de Quake, el mundo del hardware
gráfico de las computadoras se ve sacudido por la placa
aceleradora de video 3DFX Voodoo. Hasta este momento las
placas de video existentes no estaban bien implementadas y no
producían avances significativos respecto a la calidad de los
juegos pero con el lanzamiento de la 3DFX Voodoo la
competición fue barrida. Poseía una extrema e impresionante
calidad y performance en tres dimensiones. A partir de su
lanzamiento en 1997 las placas de video fueron un elemento
común y prácticamente reglamentario si se pensaba disfrutar
juegos con buenos gráficos.
El año 1999 fue otro año interesante para el mundo de los
gráficos en tres dimensiones, desde varios aspectos. En el
área cinematográfica se estrenan dos películas de una gran
importancia. A comienzos de ese año hizo falta una película
de un vanguardista en efectos especiales como George Lucas
para impresionar nuevamente a las audiencias, se estrena Star
Wars: The Phantom Menace. Esta largamente esperada precuela
de las antiguas Star Wars tuvo un rotundo éxito de taquilla,
solamente precedido por Titanic y las originales de la serie.
Lo más sorprendente de este largometraje fue el elevado
25
porcentaje de gráficos generados por computadora más que la
calidad en si misma, sin desmerecer este último aspecto
mencionado. Aproximadamente un noventa por ciento del la
imaginería de la película fue manipulada digitalmente de una
forma u otra, ya sea con efectos visuales tradicionales o
mediante el uso de modelos y escenarios íntegramente
modelados en 3D. Nuevamente podemos ver la inclusión de un
personaje animado en la misma, el personaje Jar Jar Binks,
una especie de sapo humanoide. El largometraje fue nominado
por los Premios de la Academia en la categoría Mejores
Efectos, Efectos Visuales.
A pesar de la nominación a Star Wars: The Phantom Menace,
quién se llevó el premio por Mejores Efectos, Efectos
visuales, fue la película The Matrix. The Matrix hizo uso de
una excelente y atrapante historia con una genial vuelta de
tuerca argumental, cosas que le faltaban a la precuela de las
vieja Star Wars, excelentemente acompañados por el uso
racional y medido de unos hiperrealistas efectos visuales.
Esta película hizo un uso discreto, aunque en menor medida
que Titanic, de los efectos generados en tres dimensiones.
Pueden verse en The Matrix escenarios de un mundo futurista
totalmente devastado por la guerra entre el hombre y las
máquinas. Además de dar vida a robots con forma de insectos,
saltos de edificios a edificios por personas normales y
peleas de kung fu por los aires, un elemento bien
26
implementado que luego se convertirá en una muletilla en las
películas de acción es el famoso Bullet Time. Este efecto
visual consta de una gran ralentización del tiempo generada
mediante el uso de múltiples cámaras de alta definición y
efectos de postproducción digital, generando una sensación de
que el tiempo se detiene y el espectador puede ver con lujo
de detalle una acción que normalmente pasaría en apenas un
par de segundos.
Para los jugadores de juegos de computadora, y para la
industria de juegos en sí misma, el año 1999 también fue
excitante. La corporación multinacional especializada en el
desarrollo de unidades procesadoras de gráficos Nvidia,
consigue vencer a la empresa 3DFX en la lucha por la creación
del mejor chip gráfico para placas aceleradoras de gráficos
para computadoras, con su nuevo procesador TNT2. Ni siquiera
la placa de video Voodoo 3 pudo superar a la TNT2. Nvidia no
se detuvo ahí. Ese mismo año lanzaron la placa de video
GeForce 256, fue la primera placa aceleradora en soportar un
mecanismo de transformación e iluminación o Transformation
and Lighting Engine (TNL). Al momento de representar un mundo
en tres dimensiones en un juego se toma toda la información
de los vértices y triángulos de la escena para procesarlos y
eventualmente producir las imágenes en pantalla. Este proceso
consta de una primera etapa en donde se utilizan los vértices
(coordinadas y, x y z) para interpretar sus cambios de
27
posiciones para representar los movimientos en el mundo 3D y
los del espectador, una segunda etapa en la que se
representan los objetos en el mundo y cómo son iluminados de
modo que parezcan reales y una última etapa en donde se toma
toda la información procesada, se conectan los vértices de
las estructuras y se las representa en pantalla. En el año
1999 no se lanzó ningún juego que soportara esta opción del
TNL, salvo por el Quake III, que vio la luz en Diciembre de
ese año.
En lo que corresponde al mundo cinematográfico, los años
2001, 2002 y 2003 para los gráficos en tres dimensiones
fueron marcados por la trilogía de películas de El Señor de
los Anillos. Esta serie de largometrajes consiguió darle una
vida asombrosa y sorprendentemente fiel a los libros del
escritor John Ronald Reuel Tolkien o J.R.R Tolkien, como se
lo conoce habitualmente. El director Peter Jackson logró lo
impensado hasta ese momento, llevar a la pantalla grande las
novelas de Tolkien, algo tenido en cuenta como imposible y
convirtió a la película en un éxito instantáneo de taquilla.
Weta Workshop es una empresa de efectos especiales de Nueva
Zelanda que tomó relevancia mundial luego de hacerse cargo de
dicha área en la trilogía de películas de Peter Jackson.
Consiguieron hacer creíble los elementos fantásticos del
extenso mundo de las novelas de Tolkien. Además de generar
íntegramente en tres dimensiones entornos de la película como
28
el Abismo de Helm, los Puertos Grises de los elfos, las Minas
Tirith de los enanos, la ciudad fantasma de Sauron, y muchas
otras, el logro que consiguió más relevancia fue la creación
de Gollum. Este personaje fue generado mediante el uso de
técnicas de motion capture aplicadas al actor Andy Serkis,
quien durante las filmaciones actuaba todas las escenas del
personaje de Gollum para luego ser modificado digitalmente y
suplantado por su versión creada en tres dimensiones, pero no
sin antes recoger todos los movimientos que éste hacía como
guía para los diseñadores.
Figura 4: Andy Serkis actúa una
escena con un traje de motion-
capture..Fuente:
http://www.serkis.com/mocapgollu
m.htm
Originalmente se suponía que iba a ser generado puramente por
técnicas CGI, pero Peter Jackson quedó tan impresionado con
29
la actuación de Serkis como el atormentado Gollum que decidió
rediseñar al personaje para que tuviera rasgos similares a
los del actor. La criatura interpretada por Serkis fue un
hito en el mundo de los personajes creados en tres
dimensiones, ya que fue la perfecta unión entre el motion
capture realizado a una persona y el trabajo digital de los
modeladores 3D, haciendo a Gollum una criatura llena de
expresividad no solo facial, si no de cuerpo entero. La
trilogía de El Señor de los Anillos consiguió 17 premios
Oscar de la Academy Awards, entre los cuales se encuentran
los de la categoría Mejores Efectos Visuales que consiguió
cada una.
Antes de avanzar al año 2004, luego del estreno de la primera
película de El Señor de Los Anillos, en el año 2001, se
estrenó Final Fantasy: The Spirits Within. Esta película, a
pesar de generar una inmensa expectativa en los amantes de
los videojuegos de todo el mundo debido a que se basaba en el
mundo de la multipremiada serie de videojuegos Final Fantasy,
fue una desilusión en cuanto a las ventas. Con un presupuesto
de ciento treinta y siete millones de dólares el
largometraje, solo consiguió recaudar mundialmente ochenta y
cinco millones. Sin embargo la importancia que posee Final
Fantasy reside en su realización cien por ciento mediante
medios digitales en tres dimensiones, desde los mundos, hasta
los personajes, sin utilizar ningún tipo de motion capture.
30
Ningún director se había atrevido hasta ese momento a
realizar una película hecha completamente mediante el uso de
CGI 3D de las magnitudes de calidad gráfica que se propuso el
realizador Hironobu Sakaguchi.
Para entender tamaño esfuerzo que supuso generar toda la
imaginería vista en la película algunos datos técnicos son
desarrollados a continuación.
Más de ciento cincuenta artistas digitales y veinte
científicos informáticos e ingenieros trabajaron en la
producción de Final Fantasy: The Spirits Within, en las
oficinas centrales de la empresa Square Pictures en Japón,
con el fin de conseguir el elevado nivel técnico de la
película. El primer paso fue dibujar cada personaje a mano
mediante el uso de expertos dibujantes. Partiendo de esos
bocetos, los modeladores de gráficos en tres dimensiones se
embarcaron en la ardua tarea de crear los personajes
digitalmente que luego sería animados, su completa anatomía,
los huesos, músculos, diferentes ropas y tipos de pelo. La
siguiente tarea fue animar estos personajes, aquí es donde
más se complica la tarea de un artista de CGI 3D, darle vida
a un objeto artificial y que no lo parezca. Por ejemplo, la
sincronización labial o lip-sync y las expresiones faciales
no podían ser menos que perfectas y realistas. Las texturas y
el color de la piel de los personajes debía ser igual de fiel
a la realidad, se usaron arrugas, marcas de nacimiento y
31
cicatrices para dar un aspecto creíble, lejos del cutis
perfecto de personajes animados de largometrajes anteriores.
Por otro lado los escenarios no fuero dejados de lado a pesar
del esfuerzo aplicado a los personajes. Poseían los mismos
niveles de calidad, los artistas CGI trabajaron en ellos
durante cuatro años para lograr que cada elemento presente,
como la tierra, el agua, el concreto, la flora, el fuego, las
explosiones y otro gran número de componentes, fueran tan
reales como su contraparte en la realidad, no solo se busco
un hiperrealismo en su aspecto sino también en su
comportamiento al interactuar con los personajes. Para
ejemplificar el nivel de detalle, los modelos de los
personajes contenían más de sesenta mil pelos animados y
renderizados individualmente. Necesitaron para generar la
película un grupo de computadoras, conectadas paralelamente,
de novecientas sesenta computadoras Pentium III de
novecientos treinta y tres megahertz, las procesaban durante
una hora y media cada fotograma, a un promedio de más de
treinta fotogramas por segundo y si consideramos que la
película dura aproximadamente ciento seis minutos, podemos
entender la inmensa producción que supuso la misma.
A pesar del hito histórico que fue Final Fantasy: The Spirits
Whitin gracias a su complejidad técnica e hiperrealismo, como
se mencionó más arriba la película fue una decepción en
cuanto a las ventas. Tan solo dos años después de su estreno,
32
en 2003, la empresa Square Pictures anunció su fusión con
Enix, una productora de videojuegos, y su retirada de mundo
de los largometrajes debido a una deuda de más de ciento
quince millones de dólares. Es probable que la mayor
inconveniencia de Final Fantasy sea una combinación de dos
factores. En primer lugar se debió a un problema argumental,
una historia que no seguía el guión de la tan conocida serie
de videojuegos, lo que decepcionó a un gran porcentaje de
fanáticos de la misma y a la vez este nuevo acercamiento no
era tan atrayente como se esperaba. Y por otra parte estaba
el problema que más le compete al presente proyecto de
graduación, que fue la falta de convencimiento que se
generaba en los espectadores al ver una película íntegramente
realizada en tres dimensiones con una búsqueda demasiado
profunda por el hiperrealismo, por “parecer” la realidad. Un
ejemplo claro que avala esto es Shrek, en donde las imágenes
generadas en tres dimensiones están más enfocadas en reforzar
la historia y la naturaleza de sus personajes, que de mostrar
una imaginería hiperrealista.
1.5 Un nuevo milenio con nuevos estándares.
En lo que corresponde a los videojuegos, el acontecimiento
más importante del 2001 fue el lanzamiento de la consola
Xbox. La Xbox fue la primera consola lanzada por Microsoft y
la primera en innovar en la incorporación de un disco rígido
33
en la misma. Cuando Bill Gates anunció en la Conferencia de
Desarrolladores de Juegos en San José, California, nadie
sabía qué suponer de aquello que explicaba. Era una época
complicada para lanzar una nueva consola, Sony se encontraba
desplazando a un segundo lugar, desde hace tiempo, en puestos
de ventas con su Playstation a Nintendo. La idea de Bill
Gates parecía bastante arriesgada, considerando que el mundo
de las consolas de videojuegos no suele confiar en nuevos
miembros. Luego de varios anuncios por parte de Microsoft
durante el 2000 en varias conferencias de videojuegos, en
2001 es lanzada la consola en cuestión. A simple vista, dos
problemas eran fácilmente visibles. En primer lugar el diseño
de la Xbox era poco estético, tenía un tamaño bastante más
grande que la Playstation y estaba menos estilizada, con una
gran equis en la parte superior. El segundo inconveniente era
el tamaño de los controles, el cual dificultaba el manejo de
los mismos, debido a que no era muy ergonómico, este último
problema fue solucionado con una reversión de los controles.
Luego de su lanzamiento, y sin tener ninguna chance de
alcanzar en ventas a la Playstation, Microsoft pelea cabeza a
cabeza con Nintendo el segundo puesto, ganando la lucha
eventualmente luego de tres años, gracias a una agresiva
reducción del precio a la venta, su revolucionaria función de
juego en línea, llamada Xbox Live y un catálogo de juegos a
la venta de gran calidad. Esta plataforma permitía a los
34
usuarios de la consola de Microsoft jugar entre sí a través
de Internet, fue la primera consola en poseer este sistema de
juego en línea.
A pesar de poseer un discutible diseño, controles un poco
grandes y un precio alto, Microsoft consigue vender tres
millones de Xbox en las tres primeras semanas de su
lanzamiento, tan solo en los Estados Unidos. A pesar de
esforzarse en tratar de introducir la consola en el mercado
Japonés, liderado por la multipremiada Playstation, Microsoft
no logra una inserción importante de la Xbox. Solo ciento
treinta y ocho mil consolas son vendidas en la primera semana
de su lanzamiento en ese país y varias tiendas bajan los
precios de venta de las consolas debido al nivel de ventas.
En el Reino Unido las ventas mejoran significativamente,
aunque en este escenario un precio alto hace que inicialmente
no se vendan tantas como se esperaba, de todos modos esto
cambió un mes después de su lanzamiento en estas tierras.
Cuatro semana más tarde de su lanzamiento en el Reino Unido
la consola recibe una disminución en su precio, pasando de
los 300 euros a solo doscientos. A pesar de sobrevivir
durante varios años más y conseguir superar un poco la
calidad de de los juegos su contraparte, la Playstation 2, la
Xbox eventualmente desapareció, Nvidia dejó de producir el
chip acelerador gráfico que contenía la consola y Microsoft
oficialmente dejó de fabricarla y de proveer soporte para sus
35
usuarios en el año 2005.
En cuanto al hardware, la Xbox estaba diseñada para tomar
ventaja de un punto muerto en el saturado mercado de los
videojuegos de computadora, simplificando la forma de jugar e
incorporando un sistema Ethernet construido dentro de la
consola permitiendo a los usuarios jugar a través de
Internet. La consola costaba en el año 2001 tanto como una
placa de alta performance de GeForce, manteniendo una calidad
gráfica similar. Sin embargo, todas estas características no
fueron aprovechas al máximo durante el primer año desde su
lanzamiento, sobre el hecho de que ningún juego utilizaba el
sistema de juego en línea.
La Xbox también fue la primera consola en incorporar un disco
rígido en su interior, usado principalmente para almacenar
archivos del juego y partidas guardadas, lo cual evitaba la
necesidad de otras consolas de utilizar memorias externas. En
cuanto a su unidad gráfica, como se mencionó anteriormente,
el chip acelerador gráfico estaba fabricado y desarrollado
por Nvidia y Microsoft, denominado NV2A. Dicho procesador
gráfico poseía una alta velocidad para su tiempo de
doscientos treinta y tres megahertz. La cualidad más
importante del NV2A era su soporte de Vertex Shaders y Pixel
Shaders. Mediante el uso de estos dos sistemas de procesado
de imagen en tres dimensiones, los efectos especiales de
iluminación podían crearse mucho más detallados, sucediendo
36
lo mismo con la geometría de los objetos modelados. En pocas
palabras, son pequeños programas que se encargan del
procesamiento de vértices y de píxeles. Un vertex shader es
una función que utiliza como elemento un vértice de un objeto
en tres dimensiones, trabajando solo con uno a la vez,
transformándolo. Modifica propiedades de este vértice de modo
que afecten al objeto al que pertenece. Esto hace que se
generen efectos de deformación de un cuerpo en tiempo real;
por ejemplo, el movimiento de una ola golpeando contra otra.
En la actualidad el vertex shader toma una gran
preponderancia al momento de generar las expresiones
corporales de un personaje generado en tres dimensiones.
Por el contrario, el sistema pixel shader no altera la
estructura de un objeto al momento de procesarla, sino que
entra en acción al momento de renderizar, de generar la
imaginería 3D. En este momento se aplican las texturas del
objeto que el diseñador 3D utilizó y se procesan los píxeles
que conforman dichos elementos. Esto permite que se calcule
cómo los efectos de iluminación afectan a las texturas de los
modelos tridimensionales en tiempo real, aplicando los
resultados a cada píxel de forma independiente. Estos
resultados pueden verse claramente en juegos más
desarrollados que aprovechan al máximo este sistema de
procesamiento de texturas, como por ejemplo Doom 3, Far Cry y
Half Life, en donde los efectos de iluminación son
37
sorprendentes.
La Xbox, a pesar de que eventualmente fue olvidada y no tuvo
el éxito que se esperaba en un principio fue de suma
importancia para el mundo de los gráficos en tres
dimensiones, por sus innovaciones en cuanto al procesamiento
de los objetos en tres dimensiones y en cuanto a la
jugabilidad, por la incorporación de un sistema de juego en
línea y un soporte de disco rígido.
En el año 2003, en el mundo de los videojuegos en tres
dimensiones para computadora, un nuevo quiebre en los
estándares de calidad se produce por el lanzamiento del
largamente esperado Half Life 2. Este revolucionario juego
fue el sucesor de la primera versión lanzada en 1998. Ambas
supieron causar un inmenso impacto, tanto en los usuarios
como en los desarrolladores de sus respectivas épocas. La
primera versión sorprendió mayormente por la historia
atrapante del juego, la forma en que el protagonista
interactuaba con su entorno, en donde se encontraban
personajes realmente actuaban de una forma u otra al vernos,
un guión que hacía que los usuarios se mantuviesen pegados a
los monitores, no solo por la acción desenfrenada ya que era
un juego de disparos en primera persona, sino también por
saber qué era lo que seguía en las aventuras del
protagonista. El Half Life 2, si bien también tiene cierto
elemento importante en el apartado de su historia y guión, no
38
marcaba un punto de cambio, si no que mantenía un poco la
línea de su antecesor. En cambio, lo que realmente destacaba
de esta nueva versión, era la calidad gráfica y por sobre
todas las cosas el aspecto de vida que poseían los
personajes, sus expresiones faciales y la forma en que éstos
interactuaban con su entorno, todo esto gracias al engine o
motor de render denominado Source Engine, desarrollado por
Valve, la empresa creadora de ambos videojuegos. A modo de
comprender varios procesos que se explicaran en siguientes
capítulos del presente Proyecto de Graduación, explicaremos
los puntos más relevantes de este engine que marcó el fin de
una generación de videojuegos y el comienzo de la siguiente.
En cuanto a los shaders, un conjunto de instrucciones
utilizadas por un software para calcular efectos sobre
gráficos en 3D, las principales características del Source
Engine son el soporte para shaders High Level Shader Language
(HLSL) que permite interpretar todo tipo de efectos aplicados
a las texturas de los objetos de una escena y un sistema de
procesamiento de transparencias de ciertas texturas aplicadas
a objetos simples con el fin de que parezcan más complejos.
Las sombras e iluminaciones dinámicas son otro punto fuerte
de este motor de render. Por ejemplo la utilización del
sistema de iluminación de alto rango dinámico (HDR) que
brinda un efecto a los entornos 3D similar al del ojo humano
cuando se acostumbra gradualmente a los diferentes niveles de
39
luz abriendo o cerrando la pupila evitando que una fuente de
luz potente no deje ver a la persona el resto de su entorno,
como pasa con las cámaras fotográficas.
El Source Engine también permite generar todo tipo de efectos
especiales con facilidad a un buen nivel de calidad. Algunos
de los efectos posibles son los sistemas de partículas, haces
de luz, humo volumétrico, sangre y otros de carácter de
entorno como niebla y lluvia. Un sistema de efectos de
partículas avanzado que permite generar efectos realistas
para la época nunca antes vistos, como fuego, explosiones y
nieve, entre otros, con la adición de renderizarse de forma
múltiple facilitando esta tarea.
Y por último, este motor de render destaca también por su
apartado de materiales, los cuales son utilizados sobre los
objetos y escenarios del entorno gráfico. El motor permite
definir una gran cantidad de materiales que determinan de qué
está hecho un objeto y cómo se verá en el transcurso del
juego. Estos materiales definen terminantemente cómo se
romperá un objeto, qué sonido generará cuando se estrelle o
se arrastre contra otro y cuál es la masa y firmeza del
mismo. Estos avances fueron completamente novedosos para la
época.
El año 2004 ve el lanzamiento de algunas películas animadas
en tres dimensiones o al menos con algunas escenas o
personajes generados de esta forma, de relativa importancia.
40
Una de ellas es Shrek 2, que consigue la compleja tarea de
alcanzar el éxito de su predecesora en cuanto a ventas,
críticas y calidad gráfica. En términos de ventas, Shrek 2 es
la tercera película más recaudadora de todos los tiempos en
Norte América, solo debajo de Star Wars de 1997 que tuvo un
segundo estreno en 1990 y Titanic de 1997. Shrek 2 avanzó en
todas formas, desde el guión y los chistes hasta la
animación, consiguiendo nuevamente un buen “matrimonio” entre
ambos aspectos, lo que como se vio en el desarrollo de este
trabajo práctico prácticamente asegura el éxito de una
película animada.
Otra gran película del 2004 en cuanto a calidad gráfica e
hiperrealismo es The Day After Tomorrow. Esta película si
bien tiene un gran defecto que evita esa unión entre guión y
efectos, el defectuoso relato de su historia, The Day After
tomorrow consigue sorprender inmensamente con sus efectos
especiales, en donde podemos ver algunos de las creaciones en
tres dimensiones más realistas y cautivadoras de la historia
de la animación. La fuerza de la imaginería en tres
dimensiones en esta película con reside en personajes
animados, si no en los entornos en que acontece la historia
al momento de producirse el desastre global, en donde se
pueden apreciar olas inmensas azotando ciudades enteras,
edificios siento destruidos desde los cimientos y muchos
otras consecuencias del desastre natural, incluyendo una
41
escena de diez minutos en donde se puede apreciar a la ciudad
de Nueva York cubierta en agua congelada alcanzando incluso
más de la mitad de la Estatua de la Libertad. El poder
icónico de las imágenes redefinió el género de las películas
de catástrofes y los estándares de calidad en los mismos.
En el año 2005 el mundo de las consolas de videojuegos
presencia un nuevo arribo de la mano de Microsoft, quien
lanza la Xbox 360. En una sorprendente estrategia de mercadeo
Microsoft adelante el lanzamiento para las navidades de ese
año, siendo la primera consola de la nueva generación en ese
momento, adelantándose a la Playstation 3 de Sony. Esto
sumado a un lanzamiento mundial en simultaneo, a diferencia
de la forma clásica secuencial, con una notable diferencia
entre su lanzamiento en Norte América y Europa de tan solo
una semana.
1.6 La preparación y el lanzamiento del futuro 3D.
Con la salida de la Xbox y el posterior lanzamiento de la
Playstation 3 en 2006, se produce un efecto de transmisión de
tecnología y calidad gráfica al mundo de los juegos en
computadora que se mantiene hasta la actualidad. Lo que se
traduce en nuevos chips gráficos para las PC. Tan solo un año
después, las empresas líderes en placas aceleradoras
gráficas, Nvidia y ATI, deciden crear soluciones que
permitieron conectar múltiples placas a una misma
42
computadora, aumentando significativamente el rendimiento de
las mismas en cuanto a los videojuegos. Estos sistemas son
llamados SLI y Crossfire por parte de Nvidia y ATI,
respectivamente. Este tipo de avances por parte de la
computación permitió generar eventualmente hasta la
actualidad una mayor calidad gráfica los juegos de
computadora, ya que esta última permite ser actualizada. La
calidad gráfica se va refinando día a día pero sin dar pasos
tan agigantados como en otros tiempos. Es probable que el
próximo salto generacional lo hagan las nuevas consolas de
videojuegos que saldrán en algunos años, de la mano de Sony y
Microsoft.
Probablemente las mejores películas desde un punto de viste
técnico de los gráficos en tres dimensiones hasta el 2009 son
tres. Dos desde el punto de vista de la unión entre guión e
imaginería 3D y la otra desde la creación ciento por ciento
en tres dimensiones.
En la primera instancia se encuentran King Kong y Star Wars
III. Ambas películas supusieron una gran cantidad de
producción para generar la calidad gráfica vista. En el caso
de Star Wars es probable que al ser la última película de la
saga, George Lucas haya decidido hacerle especialmente
sorprendente. Al verla es obvio a la vista que las personas
detrás de los efectos especiales no han hecho otra cosa que
mejorar a lo largo del tiempo. Por ejemplo, el persona de
43
Yoda mejoró notablemente respecto a los capítulos anteriores
de la saga, y en momento como los que se le hacen primeros
planos y se puede ver el movimiento en sus ojos, es evidente
el nivel de vida que los diseñadores les imprimen. Otro
elemento interesante fue el escaneo digital de todos los
actores con el fin de añadírselos a los dobles en el momento
de realizar escenas de riesgo, algo nunca hecho hasta ese
momento.
King Kong tenía una excelente calidad de imaginería en tres
dimensiones aunque variaba un poco dependiendo de la
preponderancia de los objetos en la película, sin embargo el
monstruo principal, King Kong, es probablemente el personaje
de mayor calidad creado hasta la fecha.
La tercera y última película analizada en el presente
Proyecto de Graduación es Beowulf. Dicho largometraje se
ubicó en el sendero de las películas generadas íntegramente
en tres dimensiones, ayudada por el uso de motion-capture.
Aquí, el director Robert Zemeckis aprendió se los errores
cometidos en su anterior producción de esta índole, The Polar
Express. En The Polar Express las animaciones de los
personajes dejaban en los espectadores una sensación poco
realista en sus movimientos y expresiones. Para solucionar
este inconveniente decido juntar un grupo de cuatrocientos
cincuenta diseñadores de imaginería 3D. Ayudado por el gran
cuerpo técnico, Zemeckis sumó soluciones entendiendo que la
44
búsqueda por crear un relato demasiado creíble con demasiado
carga en cuanto a la historia en un medio íntegramente
digital genera un rechazo en el espectador. Aprovechando
esto, decidió realizar un largometraje con una propuesta más
parecida a una montaña rusa de emociones que le permita a la
gente asimilar más fácilmente el uso del CGI 3D.
De aquí en más la animación en tres dimensiones en el cine al
igual que los videojuegos siguen una escala en ligero ascenso
en producciones y calidad. Si bien los grandes pasos que
abrieron camino y rompieron barreras ya fueron dados por
producciones antes mencionadas, una ligera curva ascendente
puede verse a medida que transcurren los años. Las obras cien
por ciento animadas siguen mejorando y mejorando el uso de
texturas, iluminación y modelos para generar mundos
increíbles, y creíbles a la vez para el ojo del espectador, a
pesar de que se trate de una película animada. Las que
mezclan elementos filmados y elementos animados siguen
minimizando el espectro que separa ambos de ser una misma
realidad. La industria sigue produciendo nuevos programas de
desarrollo de tres dimensiones más avanzados y mejorando los
ya existentes, facilitando el trabajo de los modeladores y
animadores.
Capítulo 2
45
Qué es la percepción visual.
2.1 La percepción visual, el hombre y el mundo que lo rodea.
El hombre transita su existencia en un mundo que da por
sentado como concreto e inmediato, al igual que la habilidad
para percibirlo. Los objetos tienen posiciones, formas,
colores y otras características que parecen ser percibidas
instantáneamente, y pueden ser alcanzados o movidos sin
ningún esfuerzo físico aparente. Obviamente debe haber
procesos complejos que sustentan la experiencia visual y es
por esto que a lo largo del tiempo y la historia ha habido
personas que lo han encontrado fascinante y han teorizado al
respecto. Algunos de los más reconocidos son Wertheimer
(1880-1943), Köhler (1887-1967) y Koffka (1886-1941) y la
teoría de la Gestalt. Ego Brunswik (1903-1955) y su
funcionalismo probabilístico. El psicólogo americano J. J.
Gibson (1904-1979) y su teoría sobre la percepción directa.
David Marr (1945-1980) y su acercamiento computacional a la
percepción. Podrían nombrarse más teóricos sobre la
percepción a lo largo del tiempo, pero a fines prácticos en
el presente capítulo del Proyecto de Graduación se ahondará
más adelante solo sobre dos de los arriba mencionados.
Aunque el ser humano indudablemente percibe el mundo que lo
rodea, no se tiene un conocimiento directos de cómo se genera
esta experiencia. Para la mayoría de la gente, la mayor parte
46
del tiempo, las percepciones son simplemente dadas como
hechos verdaderos e inequívocos del mundo. Está claro que la
percepción es un proceso psicológico asombroso. Su
satisfactoria capacidad de proveer información precisa sobre
las características del mundo que rodea al hombre es un
indicio de su poder, ya que hay relativamente pocas
situaciones en donde se encuentra errada.
2.2 Modelos de la percepción visual.
En términos evolutivos, la función de la percepción es
bastante trivial. Es permitirle al ser humano interactuar con
los objetos del mundo que lo roda. Específicamente, las
percepciones son usadas para guiar el comportamiento y las
decisiones respecto al entorno. La visión es usada para
determinar la ubicación de los objetos y superficies en
relación al observador, para que éste puede acercarse ellos,
alcanzarlos, moverlos o incluso evadirlos de acuerdo a lo que
su supervivencia requiera.
El entendimiento de los procesos perceptuales generalmente es
formados por conceptos y modelos extraídos de otros campos de
investigación científica. David Marr (1982) definió tres
niveles en los que cualquier sistema de procesamiento de
información, incluyendo el sistema visual, puede ser
entendido. En el nivel más alto se encuentra la descripción
de la teoría computacional. Esto involucra determinar el
47
propósito y objetivo del proceso, y la lógica general de la
estrategia para llevarlo a cabo. Debajo de esto está el nivel
algorítmico de representación. Este nivel requiere
determinaciones de la secuencia de los procesos que
acontecen, para que pueda lograrse la computación de la
información generada. Independientemente de estos dos niveles
se encuentra el nivel de implementación de hardware. De modo
que este último nivel es el que lleva a cabo los procesos
físicos procesados en primera instancia por los dos niveles
anteriores. Una computadora representa una metáfora útil para
explicar el funcionamiento del cerebro porque ambos pueden
desarrollar diferentes funciones con las mismas estructuras.
Como se mostró, el entendimiento del cerebro y la percepción
a lo largo d la historia siempre dependió en el uso de
analogías tomadas de la ciencia física.
El acercamiento de Marr sobre la percepción visual se
concentra en los diferentes niveles representación. Dos
distinciones señala Marr respecto a estos niveles, por un
lado representaciones que dependen del punto de vista del
observador y por el otro, aquellas que son independientes de
él. Por ejemplo, al leer un libro éste se encuentra a una
distancia y dirección determinada del lector, y las páginas
abiertas pueden ser vistas pero la tapa no. Esto corresponde
a una representación dependiente del observador. En cambio,
las características como su tapa, contratapa o si se
48
encuentra abierto o cerrado no están limitadas a un punto de
vista especifico. Marr llamó a esto una representación
centrada en un objeto. De ésta teoría se desprenden dos tipos
de fenómenos relacionables a la percepción visual. El primer
tipo de representación que Marr marcó es llamado visión
temprana y el segundo visión tardía. La visión temprana se
basa en los estímulos que recibe el receptor; estos son el
color, textura y movimiento. La visión tardía involucra
información recolectada del mundo por el observador, es decir
su memoria, y su principal función es el reconocimiento de
los objetos.
2.3 La teoría de la Gestalt.
Creadas a principios del siglo XX, las leyes de la Gestalt
fueron anunciadas a partir de observaciones que el cerebro
humano organiza las percepciones recibidas como totalidades
que no podían ser reducidas a elementos simplificados. El
acercamiento fue sorprendente en su momento y continua
excediendo significancia en la actualidad en la psicología de
la percepción.
Los teóricos de la Gestalt creían firmemente en la naturaleza
dinámica de percibir y la tendencia de la percepción hacia
una solución coherente, significativa y simple. Las
demostraciones de la Gestalt de las propiedades emergentes de
las interacciones de los estímulos presentan un importante
49
reto para todas las teorías sobre la percepción visual que
vendrían. La decisión de los teóricos de la Gestalt de
concentrarse en fuertes y confiables efectos es una lección a
aprender para todos aquellos que quisiesen hacer
descubrimientos sobre la percepción visual y utilizarla a
conciencia.
A lo largo del tiempo la Gestalt enunció principios presentes
en todo acto perceptivo que configuran los elementos que
llegan al observador a través de la percepción o de la
memoria, en donde el cerebro hace siempre el esfuerzo por
organizar de la mejor manera posible los elementos que
percibe. Wolfgang Köhler, uno de los fundadores de la teoría
de la Gestalt, establece que el todo es diferente de la suma
de las partes, esta idea presente en dichas leyes, que serán
mencionadas a continuación.
Estas principios, que por conocidos para todo aquel que viene
del ámbito académico del arte, no dejan de tener importancia
para toda persona que se proponga desarrollar una pieza
visual.
Principio de cierre: se aplica cuando el ojo tiende a ver
figuras completas incluso cuando parte de la información
recibida se encuentra faltante. Aunque a menudo una persona
recibe información incompleta, su mente tiende a reaccionar a
patrones que le son familiares. Si se crea una circunferencia
circular mediante pequeño puntos separados entre si, y uno de
50
ellos es retirado, el ojo sigue percibiendo la circunferencia
circular que completa un círculo.
Principio de semejanza: establece que todas aquellas figuras
que comparten características visuales como forma, tamaño,
textura, color u orientación serán vistas como pertenecientes
entre si.
Principio de proximidad: indica que aquellas cosas que estén
cercanas entre sí serán vistas como parte de un mismo grupo.
Principio de simetría: describe la instancia en donde el
total de una figura es percibido antes que las partes
individuales que conforman dicha figura.
Principio de continuidad: esta ley contribuye a percibir la
una figura compuesta como una continuidad producida por su
movimiento percibido antes que las múltiples partes del mismo
individualmente. En el caso de ver una cruz antes que cuatro
líneas convergiendo en un mismo punto.
Principio de simplicidad: parte de la observación de que el
cerebro organiza los elementos percibidos de la mejor manera
posible, incluyendo la perspectiva, volumen, profundidad,
tamaño, etc. El cerebro tiende a priorizar formas completas,
integradas y estables estructuralmente. Este principio es más
general que los demás, ya que incluye a otros como el de
continuidad, el de proximidad, entre otros. Sobre la idea de
simplicidad se ahondará más adelante en el presente Proyecto
de Graduación al igual que los dos próximos principios, el de
51
figura y fondo y el de área.
Principio de relación figura y fondo: determina cómo son
usados los elementos de una escena que son similares n
apariencia y forma y son agrupados juntos como un todo.
Objetos similares, determinados como figura, son contrastados
con objetos desorganizados, determinados como fondo.
Principio de área: enuncia que la menor de dos figuras que se
superponen es percibida como la figura mientras que la más
grande es relegada como fondo.
Capítulo 3
52
La forma.
3.1 El acto de ver.
El hombre al ver un objeto o su entorno se vale de un sistema
de orientación práctica para subsistir en el mundo en que
vive. Este sistema es el acto de ver, determinar y reconocer
por medio de los ojos todo lo que lo rodea. En este acto el
primer elemento que cobra importancia es la forma. Como
ejemplifica Rudolf Arnheim (1992), un hombre que entra a su
dormitorio por la noche con las luces apagadas y percibe una
mancha oscura sobre su cama, “ve” que es su mujer la que se
encuentra recostada en su lugar habitual. A pesar de no verla
con claridad, esta persona tan solo necesita percibir unos
mínimos indicios sobre la forma de su mujer para poder
detectarla y orientarse.
El acto de ver posee una profundidad mucho mayor que la
arriba mencionada. El proceso óptico descrito por la física
es bien sabido. La luz es emitida por los objetos del
ambiente. Las lentes del ojo proyectan la imagen de dichos
objetos sobre las retinas, que transmiten el mensaje al
cerebro. Sin embargo, para el presente Proyecto de Graduación
el aspecto con mayor relevancia es el psicológico. Debe de
entenderse que la percepción no se limita a simplemente
quedarse parado de forma pasiva y recibir los estímulos sobre
un órgano capaz de percibirlos y procesarlos para su
53
posterior interpretación. Este proceso requiere que la
persona salga a su encuentro con el mundo que percibe, lo
navegue, lo examine y lo explore a la vez. A diferencia de
una simple cámara fotográfica, la cual percibe todo lo que su
lente permite con igual fidelidad, el hombre decide qué
elementos priorizar, se ve obligado a hacer una exploración
activa, la cual se realiza a conciencia o inconscientemente.
Tanto en un caso como en el otro, la experiencia previa
almacenada en la persona tiene un rol importante.
3.2 La forma y la experiencia previa.
La forma es uno de los elementos principales que capta la
vista permitiéndole identificar un objeto. La forma es un
conjunto de aspectos espaciales que delimitan a las cosas,
sin dar información sobre su ubicación en el espacio ni si
está derecho o al revés. Estos aspectos limitan a las masas.
Un objeto en tres dimensiones está compuesto por varias capas
bidimensionales que unidas brindan una forma total y a su vez
estas capas bidimensionales están compuestas y delimitadas
por bordes unidimensionales. Un ejemplo claro es el de un
dado de seis caras. El dado es el objeto tridimensional, sus
caras son los planos bidimensionales y las líneas que limitan
las caras son los bordes unidimensionales.
La forma de un objeto no solo es determinada por la simple
imagen que llega al ojo del receptor, si no que está
54
compuesta por elementos más complejos. Es aquí donde la
experiencia previa o el conocimiento entran en juego para
complementar a la observación. Surgen varios ejemplos para
explicar con claridad este concepto. Al ver una mesa con sus
patas por uno de los lados, solo veremos dos de las cuatro,
ya que las dos más cercanas al espectador taparán las dos más
lejanas, sin embargo al ver la mesa el espectador realmente
está viendo la mesa completa con todas sus partes y no una
con propiedades físicas irreales que consigue mantenerse en
pie con solo dos puntos de apoyo. Arnheim afirma: <<El
conocimiento y la observación están tan íntimamente ligados,
que cuando miramos la cara de una persona, el pelo de la nuca
está presente en la imagen recibida>>. (1992, p. 45).
Con el fin de comprender la importancia de la influencia del
pasado en la percepción de un objeto, con el fin de
reconocerlo como tal, se ahondará en el desarrollo de este
planteo. Ya que al momento de tomar las herramientas que
ofrece los medios de producción en tres dimensiones, el
primer paso es darle forma a un objeto inexistente,
permitiendo hacer uso de todas las demás áreas como el
espacio, la iluminación, el color y el movimiento.
Al percibir la forma impresionada en el ojo, se genera una
experiencia acompañada e influida por un sin fin de
experiencias similares que acontecieron a lo largo de la vida
de la persona. La nueva imagen se ve influida por las
55
anteriores y no escapa a sus huellas, partiendo de la idea de
que todas poseen un grado de similitud. El vínculo con el
pasado afectará en mayor o menor grado a la interpretación de
la forma dependiendo de la intensidad que éste primero posea,
una experiencia reciente tendrá mayor influencia que una
significativamente anterior.
3.3 La simplicidad.
De este planteo se desprende el concepto de simplicidad,
necesario para evitar posibles interpretaciones incorrectas
de un desarrollo en tres dimensiones. Ésta se consigue
mediante el uso óptimo de los medios al alcance del
desarrollador, teniendo en cuenta qué es esencial y qué no lo
es al momento de la creación. Pensar en la simplicidad como
elemento cuando se comienza a diseñar puede resultar una
obviedad, pero es a través del profundo entendimiento del
percepto que quiere transmitirse y la capacidad para
conseguirlo, que se puede lograr como resultado de la
implementación de este elemento un reconocimiento preciso y
eficaz por parte del observador.
La simplicidad permite que lo se proponga diseñar, tanto en
un medio en tres dimensiones como en cualquier otro, sea más
rápido y fácil de entender. Permite un grado mayor de
reconocimiento ya que se presenta menos información visual
superflua. Los diseños simples deben en parte también su
56
impacto superior ya que su facilidad de comprensión minimiza
el esfuerzo consciente necesario para ser reconocidos.
Por estos motivos los desarrollos en tres dimensiones
realizados con un uso correcto de la simplicidad sirven
eficazmente a los propósitos de desarrollador, ya que se
asimilan de forma elemental. Por el contrario, los diseños
complicados obligan al observador a realizar un esfuerzo de
adaptación y a la incorporación en el proceso de la
percepción de elementos forzados y no-esenciales.
La simplicidad es el resultado de un trabajo consciente,
enfocado en la minimización de las partes que constituyen el
todo y las relaciones intrínsecas que existen entre ellas,
manteniendo la esencia del diseño a realizar y sus partes
imprescindibles y eliminando cualquier elemento innecesario.
Sin ir más lejos, una prueba del poder de la simplicidad
reside en el hecho de que los símbolos más potentes suelen
ser los más sencillos, como una señal de tránsito de
prohibición con su banda oblicua o una cruz roja en lo alto
de un hospital.
3.4 Aplicación práctica de la forma en un medio
tridimensional.
57
Una de las formas más poderosas y globalmente reconocidas
para modelar en tres dimensiones es la técnica Box Modeling.
El Box Modelling a diferencia de otras técnicas de modelaje
no requiere de un nivel de conocimiento y experiencia tan
elevado por parte del desarrollador. Como su nombre lo
indica, se parte de una estructura básica como lo es una
caja, que eventualmente deberá ser subdivida mediante cortes
a lo largo de su geometría con el uso de herramientas
provistas por el Autodesk 3ds Max como Slice o Connect. Una
vez que se van generando los nuevos cortes los vértices
creados como resultado se acomodarán por el desarrollador de
forma que la caja inicial vaya tomando la forma del objeto
que se desea modelar. Estos cortes se irán haciendo
progresivamente y solo se procederá una vez que todos los
vértices generados hasta el momento estén emplazados en el
entorno tridimensional de forma eficaz. Para conseguir esto
último será imprescindible contar de imágenes de un grupo de
referencias que puedan servir como guía para el
desarrollador. En el caso de estar modelando una cara humana,
bastarán dos fotos del sujeto, una de frente y otra de
perfil. Una de las mayores virtudes que posee el Box Modeling
reside en el hecho de que desde el comienzo el desarrollador
en tres dimensiones posee total control sobre la complejidad
de la estructura 3D, permitiéndole agregar solo la cantidad
de detalles que él crea necesaria para lograr un nivel
58
satisfactorio de reconocimiento de la forma por parte del
receptor.
A pesar de utilizar la técnica de Box Modeling, al momento de
modelar el diseñador debe generar con la práctica una visión
economizadora del modelaje, lo cual solo se consigue a lo
largo del tiempo con los eventuales trabajos realizados. Esta
visión le permite no solo disminuir la cantidad necesaria de
tiempo para crear un diseño en tres dimensiones, si no
también para mejorar su aspecto final priorizando lo esencial
de las formas y el rendimiento necesario para generar la
imagen final. Es muy común ver en diseños 3D modelados por
desarrolladores recién adentrados al mundo de la imaginería
en tres dimensiones un trabajo excesivo en los detalles, como
en las orejas de un personaje animado, en la nariz o en los
ojos. Este trabajo desmesurado, que bien podría haberse
realizado con una cantidad menor de pasos, usualmente solo
consigue dificultar el reconocimiento de la forma primitiva y
esencial de dicho objeto, fallando en el objetivo de
comunicarla de forma directa.
Otro complemento ligado al modelado de la forma en tres
dimensiones que brinda el software 3ds Max, es el
Turbosmooth. Esta herramienta es un modificador que puede
aplicarse a cualquier modelo desarrollado, dando como
resultado una subdivisión de la estructura original de dicho
objeto agregando nuevas caras e interpolándolas, agregándole
59
detalle y suavizado al nuevo modelo obtenido. El turbosmooth
es una de las herramientas más usadas en el campo del
modelado en tres dimensiones en la actualidad, ya que
partiendo de un diseño optimizado correctamente en cuanto a
su estructura esencial se consigue, aplicando este
modificador, una nueva estructura mucho más realista y
orgánica, que permite adecuar lo que el diseñador ha
desarrollado a los estándares que el público de la animación
en 3D está acostumbrado a ver en el presente.
Este modificador para funcionar correctamente requiere un
gran nivel de atención por parte del desarrollador 3D en
cuanto a la cantidad de los cortes y su ubicación en el
objeto tridimensional, manteniendo un flujo de cortes parejos
a lo largo de las estructuras. Deberán hacerse solo los
cortes más necesarios y no agregar detalles superfluos.
Durante el Box Modeling no debe procurarse conseguir un gran
nivel de realismo con dicha técnica, sino modelar pensando en
el realismo que dará como resultado el Turbosmooth a lo que
se está trabajando. Por ejemplo, si estamos modelando el
cuello de un cisne, largo y estilizado, bastará con crear un
cubo alargado del mismo grosor que el del animal desde la
base hasta el final del cuello y luego aplicar el
Turbosmooth, este modificador subdividirá la estructura dando
como resultado la forma propia del cuello del cisne. Si a
este diseño se le incorporasen más cortes de los necesarios
60
se generarían arrugas y pliegues antinaturales en la
superficie debido a que el Turbosmooth genera la misma
cantidad de subdivisiones en todos los lados del objeto 3D, y
en donde haya cortes mal distribuidos o demasiado encimados
se producirán estas imperfecciones.
Cómo se vio en el desarrollo de este subcapítulo, el Autodesk
3ds Max brinda potentes herramientas al servicio del
desarrollador para poder cubrir los diferentes aspectos de la
forma y su correcta implementación, dando como resultado un
trabajo realizado satisfactoriamente siempre que se tenga en
cuenta la esencia de la forma que se quiere replicar en el
entorno tridimensional.
Capítulo 4
El espacio.
61
4.1 El espacio y la ruptura del plano.
Para comprender el concepto de espacio debe empezarse por el
uso del mismo en el plano bidimensional, para luego pasar al
tridimensional, debido la necesidad de la percepción de
utilizar este último para simplificar el problema que se
genera con la aparición de un objeto sobre el plano y la
ruptura por la aparición de éste.
Como muestra Arnheim (1986) en el capitulo sobre el espacio
en su libro Arte y percepción visual: psicología del ojo
creador, al trazarse una línea en el papel ésta no parece
encontrarse en el plano, sobre él.
Lo que se percibe no es que el espacio en blanco bordea la
línea, sino que éste continúa por debajo sin interrumpirse.
Cuanto más gruesa sea la línea, más notable será el fenómeno.
Es claro que lo que acontece no es resultado de las
propiedades físicas del objeto sobre el plano, sino que el
fenómeno se produce psicológicamente en el observador.
Cuando se encuentra una figura compleja compuesta de varias
partes sobre un fondo simple, se producen tres posibles
interpretaciones de la relación entre estos dos elementos.
Para comprender estas tres posibilidades se encuentra la
figura 5 a modo de ejemplificación. En un primer lugar puede
verse en la figura cómo una superficie blanca a la cual se le
hubiesen hecho cortes en varias partes y formas; a través de
62
los cortes se vería un vacío de negrura, de esta forma el
plano blanco se encontraría en un estado de ruptura.
Figura 5: Superficie blanca con
cortes. Fuente: Elaboración
propia.
La segunda posibilidad se deduce de la necesidad de percibir
una estructura más simple, ya que una superficie
ininterrumpida es más simple que una con interrupciones. En
esta interpretación se ve que la figura está por encima del
plano, sin producir interrupciones. Esto demuestra una vez
más la importancia de la simplicidad en la percepción. El
fenómeno observado tiene lugar con el objetivo de obtener la
estructura más simple posible según las circunstancias en que
se encuentra la relación entre figura y fondo. Sin embargo,
en el caso de la figura 5, esta segunda posibilidad no
factible ya que el estimulo producido por la complejidad de
la figura es muy elevada y complica esta interpretación. Ésta
sería posible si la figura fuera más simple, como un punto o
una simple línea.
63
De este modo solo queda una interpretación viable, la tercera
dimensión. Según Arnheim: <<A la imagen retiniana le resulta
indiferente que la línea se encuentre en el plano ligeramente
por sobre éste. Así la superficie percibida queda en libertad
como para expulsar hacia delante al intruso, lo suficiente
como para ganar entereza.>> (1992, p. 179). Como resultado el
conjunto de figura y fondo se divide en la dimensión de
profundidad. La parte de figura parece ubicarse en un nivel
más cercano mientras que el fondo se encuentra más alejado
del observador. Por esto puede afirmarse que una superficie
parecerá antes tridimensional que bidimensional para la
percepción, si de esta forma su estructura se percibe más
simple.
4.2 Condiciones de la figura en un conjunto estructurado de
figura y fondo.
Existe una serie de condiciones que establecen a nivel de la
percepción qué elementos de un conjunto de formas asumen el
papel de figura y cuáles de fondo. Una de estas reglas
determina que una superficie tiende a convertirse en figura,
mientras que la que rodea se convierte en fondo. Una línea o
una mancha sobre una superficie tienden a distinguirse como
figura debido la diferencia que se genera entre el tinte de
éstas y la claridad de la superficie que se determina como
fondo. En cuanto a las figuras de las que solo se traza el
64
contorno, también se observa una tendencia a destacarse por
sobre el fondo.
Si se ubica sobre un plano el contorno de un círculo, es
común preguntarse por qué dicha figura en realidad no se ve
como un anillo vacío suspendido sobre el fondo sino que
tiende a verse a este vacío como parte de la figura y no como
parte del fondo que transcurre por debajo. A simple vista
pareciera que la solución provista por la figura del anillo y
el fondo fuera y dentro de éste transcurriendo debajo es la
más simple. Sin embargo, por razones fisiológicas el interior
de la figura no se muestra como parte del exterior, sino
encontrándose en un plano diferente junto con el contorno.
Como resultado el interior de la figura rechaza con mayor
fuerza que el fondo cualquier intromisión. Arnheim explica
sobre este fenómeno: <<Existe, pues, psicológicamente una
considerable entre la superficie interior y la exterior,
hecho que obstaculiza la solución del anillo.>> (1992, p.
180).
Partiendo del hecho que la superficie interior de una figura
se ve determinada por el contorno de la misma, se puede
establecer que el grado del fenómeno se percibe depende de
factores como la distancia entre el punto y el contorno, y el
grosor de éste último. Mientras mayor sea la figura, menor
será la influencia del contorno si este no tiene un grosor
proporcional, dando como resultado que disminuya hacia el
65
centro la intensidad del fenómeno, a medida que crezca la
distancia del contorno. También puede notarse que de acuerdo
al tamaño de la figura, respecto de otras que la rodean,
también tiene importancia. Antiguos pintores como Rembrandt
refuerzan las figuras principales mediante el uso de diseños
interiores, como telas plegadas y ropa, delineando los
contornos y aumentando el efecto de tridimensionalidad.
De esta regla desarrollada en el párrafo anterior se
desprende un principio que dice que es la superficie más
pequeña la que tiene más posibilidad ser identificada como
figura.
En este subcapítulo se planteó la importancia del contorno de
la figura para que ésta última pueda ser reconocida como tal,
y las diferencias de densidad y posición espacial que
generan debido al contorno de una superficie vacía. Con el
fin de reforzar el efecto de contorno, se introduce el
concepto de textura. En la figura 6 a se percibe que la
textura realza la identificación del círculo cómo figura,
mientras que en b se percibe en primer plano al contorno,
quedando a la vista un agujero circular antes que la figura
de un disco.
66
Figura 6: Discos realzados por
texturas. Fuente: Arte y Percepción
Visual: Psicología de la visión
creadora (1986).
El efecto de la textura es un factor que influye en el
fenómeno de figura y fondo que según Arnheim puede <<…solo
describirse pero no relacionarse a otros principios más
generales de los cuales pudiera ser una consecuencia.>>
(1992, p. 180). Lo que expone Arnheim es que hasta el momento
no hay una teoría convincente que avale este tipo de
observaciones, sencillamente el observador aplica su
experiencia previa de la vida diarias. Lo mismo sucede con
una figura separada horizontalmente en dos mitades, la
inferior invariablemente tendrá más peso que la superior a la
vista del observador, debido a que éste sabe
inconscientemente que en la vida cotidiana las cosas se
recortan por sobre el cielo vacío.
67
4.3 Aplicación práctica de la relación figura/fondo y
texturas en un medio tridimensional.
Un entorno tridimensional es un modelo geométrico gráfico del
universo físico en donde vivimos. Comúnmente se conoce a las
tres dimensiones (ejes) como longitud, ancho y profundidad.
En el Autodesk 3ds Max y en todos los software de modelado y
animación 3D el espacio se rige por estos tres ejes, bajo las
letras y, x y z, respectivamente.
Teniendo en cuenta la importancia del contorno para la
percepción del observador, es preponderante analizar una de
las múltiples herramientas dentro del Autodesk 3ds Max para
conseguir su correcta implementación. Este software posee un
poderoso editor de materiales que permite crear un inmenso
abanico de materiales, aplicables a todo objeto que se
desarrolle dentro de la aplicación. A fines prácticos se
utilizará un material provisto de fábrica junto con el
programa llamado Ink ‘n Paint, si bien no es la herramienta
más avanzada que puede utilizarse, es la única que se adjunta
con el programa y de fácil implementación, que aun así posee
un nivel competente de potencia en cuanto a los resultados
posibles.
Una vez desarrollada la escena 3D dentro del Autodesk, se
procede a abrir la librería de materiales y aplicar el Ink ‘n
Paint. Aplicado como se encuentra por defecto, el material se
visualizará de color azul y contornos de baja resolución. A
68
fin de corregir esto el material permite cambiar una gran
cantidad de parámetros, pudiéndose modificar la textura y el
color por la que mejor se ajuste al objeto, de la misma forma
que se haría normalmente con cualquier objeto común y
corriente. Por otro lado a fines de mejorar la calidad del
contorno existe una solapa de antialaising dentro del Ink ‘n
Paint que con solo activarla se produce una subdivisión en
los contornos, lo que se traduce en una mejora en la
definición considerable. A la par, se puede cambiar el grosor
del contorno, permitiendo adaptarlo al tamaño que posea la
figura, de esta forma como se vio en el desarrollo de los
subcapítulos anteriores se percibe fácilmente la diferencia
entre figura y fondo, sinónimo de simplicidad.
Un contorno con su superficie interna compuesta por textura,
automáticamente tiende a verse como la figura en un conjunto
de fondos y figuras. El Autodesk 3ds Max posee ciertas
configuraciones que permiten resaltar las texturas que el
desarrollador tridimensional le aplica a sus diseños. Dos de
las más importantes y visualmente reconocibles
configuraciones posibles para los materiales son el mapeo de
Bump y de Displacement.
Se llama mapeo a delimitar zonas de un objeto con una textura
determinada acorde a su forma. Mapear mediante el uso de Bump
da como resultado un efecto de irregularidades y
protuberancias sobre la superficie del objeto mapeado. Esto
69
se logra aplicando un archivo de imagen que tenga las zonas
que deben verse salientes de blanco y las que deben hacerlo
hundidas de negro. Cuando se renderiza el objeto con este
material mapeado por Bump las diferentes zonas responderán
acorde a los diferentes niveles de luz. Dando una ilusión de
tridimensionalidad usando muy pocos recursos de procesamiento
de la computadora. Con el uso del mapeo por Bump se sacrifica
calidad por velocidad, ya que no es más que un efecto visual,
no cambia la estructura modelada del objeto, solo se trata de
mentir a la vista. Si se aplicase sobre una caja, los bordes
de la misma seguirían siendo filosos por más que se apliquen
múltiples protuberancias al mapa de Bump. Por el contrario,
mapear mediante el uso de Displacement requiere un gran nivel
de procesamiento, inconmensurablemente mayor ya que a
diferencia del efecto producido mediante Bump, éste sí
modifica la estructura del objeto modelado, lo modela acorde
al mapeo. En la figura 7 puede verse claramente la diferencia
entre un método y el otro, aplicando una misma textura en
ambos tipos de mapeo, el resultado final en el caso del
displacement es más real el efecto conseguido.
70
Figura 7: Comparación de tipos de
mapeo. Fuente: Elaboración propia.
Ambos casos suponen un refuerzo para separar la figura del
fondo y darle mayor protagonismo y reconocibilidad como tal.
71
Capítulo 5
La luz.
5.1 La luz como elemento espectacular de la vida.
La luz sin dudas es uno de los elementos más importantes en
cuanto a la percepción visual y por ende en cuanto a los
gráficos generados por computadora en tres dimensiones.
Partiendo de la simple idea de que sin luz no sería posible
la percepción visual.
Como se expuso en el primer capítulo del presente Proyecto de
Graduación, la luz fue el primer elemento en el mundo de la
imaginaria en tres dimensiones en permitirles a los
desarrolladores crear objetos y escenarios con un grado mayor
de realismo comparado con lo que se venía haciendo hasta ese
momento. La luz tiene una alta importancia técnica como
psicológica.
Desde los inicios del hombre, la luz es el elemento que le
permite realizar todas sus actividades diurnas, una condición
ineludible. Tal es su espectro de influencia que trae
aparejado el calor, marca el fin de un día y el comienzo de
uno nuevo, al igual que con el paso de las estaciones.
La interpretación artística de la luz se relaciona de dos
formas con la actitud humana corriente. Una primera que está
relacionada con el orden práctico, dando como resultado una
atención selectiva por parte del observador. De lado quedan
72
situaciones cotidianas que no exigen respuesta, como el
encendido de la llama de una hornalla. Solamente el deseo de
ver más allá puede revelar a la percepción la delicada escala
de claridad y sombra que define la redondez de una manzana,
para encontrarle un significado a algo con ínfimas
consecuencias en el observador.
La segunda forma de relacionarse se basa sobre los estímulos
esenciales que recibe la vista por parte de los fenómenos que
acontecen, lejos de las consideraciones científicas de la
justificación física. A pesar de todo tipo de conocimiento
público sobre los hechos, siempre la observación directa
tendrá más preponderancia. Para el observador que mira hacia
arriba, el Sol sigue girando alrededor del cielo, naciendo en
el este y muriendo en el oeste. Arnheim reflexiona: <<Tal vez
nuestros ojos han aceptado ya que el mundo no termina donde
la bóveda del cielo toca el horizonte, y tal vez algún día
tendremos la cotidiana experiencia de ver la Tierra, y
nosotros mismos con ella, rotar bajo un sol inmóvil.>> (1992,
p. 248).
El fenómeno físico de luz que ilumina la vida de las personas
determina que el cielo iluminado recibe la luz a través de un
espacio oscuro hacia un planeta en un principio también
oscuro, que es la Tierra, con el Sol como la fuente de luz.
Todo esto a millones de kilómetros de distancia. A pesar de
los hechos físicos, el ojo los ignora, para él el cielo es
73
una fuente luz autónoma y el sol es solo el punto de máxima
intensidad en ella.
5.2 La claridad relativa y la iluminación.
En términos físicos la claridad que posee una superficie está
determinada por su nivel de reflexión y por la cantidad de
luz que recibe dicha superficie. A fines de ejemplificar la
claridad relativa, una superficie negra como puede serlo una
media de tela, aunque absorba gran cantidad de la luz
incidente sobre ella, si es fuertemente iluminada puede
reflejar tanta luz como una superficie plástica blanca,
débilmente iluminada. Para el observador no hay forma de
percibir la relación entre intensidad de luz que recibe una
superficie y el poder de reflexión de ésta, ya que el ojo
solo recibe la intensidad resultante de la luz y no las
proporciones de ambos componentes. El ojo no percibe la luz
en sí misma como un elemento activo iluminando superficies,
sino como un resultado impreso sobre las superficies formando
parte de las mismas.
Cuando se ilumina un objeto de forma completamente regular,
psicológicamente no se reconoce que haya una fuente luminosa,
a pesar de que la física diga lo contrario, ya que la
claridad y el color de la superficie son parejos debido a
este tipo de iluminación. En cambio cuando la fuente de luz
tiene un resultado irregular sobre el objeto, a este sí se lo
74
percibe como iluminado ya que se pueden ver diferencias de
brillos que afectan el color y la claridad en diferentes
medidas acordes a la estructura de la superficie. Con esto se
quiere decir que hay dos niveles cuando se ilumina, una
primera capa superior llamada iluminación y una inferior
denominada claridad y color del objeto.
Este fenómeno está ligado a la percepción de la
tridimensionalidad, ya que un objeto iluminado de forma
regular tiende hacia el plano, es decir lo bidimensional. Por
el contrario, al generarse estas dos capas, mencionadas en el
párrafo anterior, se contribuye con la tridimensionalidad. Si
una persona se para en una sala de cine tenuemente iluminada,
verá todo mas o menos uniformemente, sin dar lugar para que
la percepción detecte suficiente luz como para determinar que
la habitación está siendo iluminada, ya que tanto las butacas
como toda la sala en si misma poseerán su claridad y sus
colores inalterados. Si la misma persona enciende unas luces
direccionales y fuertes, el color y la claridad de las
butacas como los de las paredes y pisos sufrirán cambios,
debido a la naturaleza de la fuente de luz, fuerte y marcada,
que generará contrastes de acuerdo a las diferentes formas y
estructuras allí presentes.
75
5.3 Las sombras.
Existen dos tipos de sombras, las que son producto de un
objeto y las que son inherentes a éste. Las que son producto
del objeto, obviamente son aquellas que pueden percibirse al
nacer de él y su efecto sobre otras superficies. Las segundas
son aquellas, producto de la forma, orientación espacial y
distancia de la fuente luminosa, que se proyectan desde un
objeto para imprimirse en otro. Por esto las sombras
proyectadas hacen que la percepción capte algunos objetos
como generadores de oscuridad. Si se observase una foto de un
grupo de personas saludando a la cámara con las manos en alto
y el sol iluminando sus caras, es probable que se generen
proyecciones de las manos levantadas de unos sobre los
rostros de otros. Al ver a las personas de la foto en
conjunto es fácil para el ojo reconocer una de las sombras
mencionadas en la cara de un individuo como la mano levantada
de otro. Pero esto es obvio solamente porque está el conjunto
de personas en la misma foto, pero si el encuadre fuese de
una sola de éstas no sería tan simple para el ojo reconocer
la fuente de la sombra, éste podría considerarla como una
aparición surgida de cualquier parte, ya que solo posee
significación cuando se la relaciona con la mano de uno de
los individuos. Es por esto que las sombras proyectadas deben
usarse con precaución.
La función más relevante de las sombras relacionada a la
76
tridimensionalidad es crear espacio.
Figura 8: Orientación de las
sombras. Fuente: Arte y Percepción
Visual: Psicología de la visión
creadora (1986).
En la figura 8 el rectángulo a no genera por sí solo un
espacio articulado a su alrededor. En b la barra negra y su
lado menor oblicuo ayudan a percibir una tercera dimensión,
aunque menor que en el caso de c o d. En c la tercera
dimensión elimina un lado oblicuo y permite que se vea a la
barra negra como un rectángulo completo. Y por último, en d
el punto de fuga que modifica la forma de la sombra, hace que
la tercera dimensión cobre más relevancia. Es clara la
importancia de las sombras para reforzar la
tridimensionalidad.
5.4 Aplicación práctica de las fuentes luminosas y las
77
sombras en un medio tridimensional.
El Autodesk 3ds Max brinda una gran numero de herramientas al
momento de iluminar una escena. La elección debe hacerse de
acuerdo los fines que persiga el desarrollador. Básicamente
pueden elegirse entre dos grandes grupos. Un primero en donde
se encuentran todas las luces estándar, denominas de esta
forma porque son las mismas que presenta el programa desde
hace varios años con versiones anteriores, y si bien tienen
un gran conjunto de configuraciones no permiten lograr un
nivel de realismo muy elevado. El segundo grupo se denomina
photometric o fotométricas. En pocas palabras, estas fuentes
luminosas responden con mayor fidelidad a las leyes físicas
de la luz debido a que usan valores fotométricos definiendo
los haces de luz con más precisión como sería en la vida
real, brindando una cuota mayor de realismo a la escena.
Al momento de crear una fuente de luz fotométrica en el
entorno del 3ds Max, éste recomendará que habilitemos el
control de exposición, a lo cual se deberá aceptar y este
control se activará automáticamente. Este tipo de luces
permite hacer uso de este control. La importancia de él
reside en el poder de compensar la limitación del rango
dinámico de visualización que poseen los monitores de las
computadoras. El monitor solo puede mostrar el color más
brillante posible hasta cien veces más brillante que el más
oscuro, mientras que el ojo humano tiene un rango
78
inmensamente mayor, éste puede percibir un color hasta
millones de millones de veces más brillante que el más oscuro
perceptible. De esto se desprende la importancia del control
de exposición, éste ajusta los colores de modo que simulen
mejor el gran rango dinámico del ojo, mientras que se sigue
usando el rango de color posible manejado por un monitor.
Los desarrolladores en tres dimensiones tienen dentro del 3ds
Max una gran cantidad de opciones para controlar las sombras.
Además del obvio direccionamiento de las mismas, generado por
las luces dispuestas dentro de la escena, pueden configurarse
desde dos puntos diferentes. En un primer lugar, pueden
configurarse las luces de modo que su iluminación no proyecte
sombras a partir de su incidencia en ciertos objetos pero sí
que los ilumine, puede seleccionarse que estos objetos sí
generen sombras pero no se vean iluminados e incluso que
directamente ignoren a otros a voluntad. De éste modo, puede
manejarse con completa pericia las sombras proyectadas de la
escena, si éstas presentan un problema, simplemente puede
seleccionarse su fuente y eliminar la sombra que genera. En
un segundo aspecto más crítico, las sombras que maneja el 3ds
Max pueden configurarse según dos grupos, shadow map y ray-
traced shadows. A fines prácticos, este Proyecto de
graduación solo tratará estas últimas, ya que son las más
usadas a nivel profesional y poseen una fidelidad mayor
respecto a la realidad. Las sombras ray-traced son generadas
79
mediante el trazado de la trayectoria que realizan los rayos
emitidos por una fuente luminosa. Las sombras ray-traced son
las únicas que funcionan de esta forman, generando bordes
filosos en las sombras. Este tipo de sombras tiene como
ventaja que es la única que funciona sin ajustes de
resolución, a diferencia del resto, debido a su forma de
calcularse mediante la trayectoria de los rayos, dando como
resultado una importante economización de recursos de la
computadora. Su única desventaja reside en que no es posible
generar sombras suaves, éstas son siempre duras de bordes
bien marcados. Sin embargo, esto puede solucionarse mediante
técnicas de postproducción, ya que el Autodesk 3ds Max
permite renderizar individualmente solo las sombras, para ser
modificadas y reutilizadas.
Capítulo 6
80
El color.
Las apariencias visuales son producidas por el color y la
claridad, de esto se desprende que el ojo reconoce los
límites que determinan la forma de un objeto debido a su
capacidad de distinguir las diferentes áreas de color y
claridad.
La forma y el color, al igual que la luz, transmiten
expresión y generan sensaciones en el espectador, además
brindan información mediante el reconocimiento de objetos y
acontecimientos. Ambos son elementos altamente relacionados.
Si bien la forma tiene un valor comunicacional más directo en
cuanto a reconocer un objeto, el color tiene una
preponderancia expresiva mayor. Sobre la expresión, Arnhein
Rudolph ejemplifica: <<…ni siquiera el efecto de la forma más
pronunciada podría rivalizar con el de una puesta de sol o el
azul mediterráneo.>> (1986, p. 275).
6.1 Las reacciones al color.
La expresividad de los colores se basa en las extendidas
opiniones y tratados al respecto a lo largo del tiempo. El
rojo como excitante porque tiene connotación de fuego,
sangre, hervor. El verde evoca a la tranquilizadora
naturaleza, el azul a la frescura del mar, también a la
pureza y prolijidad. Se doce que todas estas asociaciones
81
subjetivas corresponden a la experiencia previa del
observador. Aun así, el fenómeno perceptivo que genera el
color es muy directo y espontáneo como para ser solamente el
resultado de una interpretación generada por la experiencia
previa.
La luz es visible entre los márgenes de longitud de onda del
espectro electromagnético comprendido por el sistema ocular
humano. Entre los límites del espectro se encuentran las
frecuencias que corresponden a todos los colores existentes
visibles. Cada color posee su propia longitud de onda y por
esto su propia frecuencia de vibración. La luz blanca que
emiten las fuentes luminosas posee proporciones casi iguales
de todas las longitudes de onda, que al ser proyectada sobre
un objeto pueden ser: absorbidas, reflejadas o transmitidas.
Aquellas que son reflejadas y transmitidas son las que le
confieren a las superficies las propiedades de color a los
objetos.
A pesar de la reacción física y de saber que la claridad
intensa, la alta saturación y los tintes que corresponden a
un color de vibraciones de longitud de onda larga, como un
rojo, producen más excitación que un verde grisáceo apagado,
no hay ningún tipo de conocimiento sobre lo que la energía
luminosa intensa produce en el sistema nervioso. Más allá de
las extendidas opiniones que la expresión del color se basa
en las asociaciones que evoca en la memoria del observador,
82
no hay una hipótesis certera sobre el proceso fisiológico que
establecería la razón de la influencia del color en el
organismo. Arnheim diferencia el lugar donde se para el color
respecto de la forma: <<Al referirnos a la forma nos
encontramos en un terreno algo más firme. Allí por lo menos
podemos relacionar la expresión de las formas más especificas
con la de propiedades más generales…>> (1992, p. 277). Esto
no ocurre así cuando se habla de color.
6.2 La sensación y la expresión que manifiestan los colores.
Cuando se habla de las sensaciones que manifiestan en el
observador, no hay clasificación más conocida que colores
cálidos y colores fríos. En el ámbito artístico estos
términos se encuentran en boca de todo desarrollador y
tratados sobre la teoría del color. Normalmente cuando se
habla de “cálidos” y “fríos” se refiere a los tintes puros,
como se hace al decir que el rojo es un color cálido y el
azul uno frío. Sin embargo en la práctica el observador se
encuentra frente a un inmenso abanico de colores que se
cruzan entre si, rara vez en estados puros. Arnheim
ejemplifica sobre estas desviaciones (1992), en su capitulo
sobre colores cálidos y colores fríos que un amarillo o rojo
azulados tienden a ser fríos, como también un rojo o un azul
amarillentos. Por el contrario, un amarillo o azul rojizos
parecen cálidos. Se está diciendo que quien determina si un
83
color es frío o calido no es el color principal, sino aquel
que se desvía ligeramente de él. Se puede deducir que según
esta teoría un rojo verdoso parece frío, mientras que un
verde rojizo parece cálido.
La apariencia percibida por un observador de un color no
depende solamente del contexto que la rodea en el espacio,
sino que también es necesario saber a qué tinte, a qué valor
de claridad y saturación se hace referencia. Los colores sin
desviaciones a otro son relativamente neutros si son
comparados con el dinamismo que produce la mezcla. Esta
neutralidad se refiere a que al encontrarse los colores en su
estado puro, no se produce ninguna lucha interna a nivel
perceptivo en el observador, como sucedería con un color con
desviación hacia otro, ya que no hay mezcla que obligue al
ojo a deducir qué colores lo conforman y acentúe la
expresión.
6.3 Aplicación práctica de los colores y sus preferencias en
un medio tridimensional.
El Autodesk 3ds Max permite controlar el color de los
materiales mediante 3 controles principales: ambient color,
diffuse color y specular color. El primero es el ambient
color, que determina el color de una superficie cuando se
encuentra afectado por sombras, es decir iluminado de forma
indirecta. Es el color que refleja el objeto cuando es
84
iluminado por una luz ambiente, antes que por una directa. El
diffuse color es color que un objeto refleja cuando es
iluminado correctamente por una luz, esto quiere decir que
está siendo iluminado por una luz solar o artificial que
hacen al objeto fácil de ver. Generalmente cuando se habla
del color de objeto está hablando del color diffuse. El
specular es el color de los reflejos presentes en una
superficie brillante. Estos brillos son reflexiones de las
luces que iluminan la superficie. Para un efecto realista, el
specular color debe ser configurado como el mismo color de la
fuente luminosa principal, dando como resultado una
superficie de aspecto pulido o cromado, o hacerlo una versión
de gran intensidad y baja saturación del diffuse color, lo
que resulta en una superficie menos brillante de aspecto
mate, ambas de alto nivel de realismo.
La elección de un color ambiente o ambient color, depende del
tipo de iluminación que se va a utilizar en la escena 3D.
Para adecuar el color de las sombras a una escena en
interiores moderadamente iluminada debe asignarse un color
más oscuro que el diffuse color. Mientras que para una escena
de interiores intensamente iluminada o de exteriores debe
elegirse un color de ambient complementario del color de la
principal fuente luminosa.
Conclusiones.
85
La creación de imágenes en tres dimensiones es una gran
herramienta que asombra al hombre desde hace más de treinta
años. Si bien esta técnica es relativamente nueva, comparada
con otras formas de arte plástico, la velocidad con la cual
creció y evolucionó es sorprendente.
Desde sus inicios en la década de los años setenta, en donde
un grupo de ingenieros se formó para desarrollar lo que sería
la primera chispa que generaría tamaña explosión en cadena
que supone el mundo del CGI 3D, pasando por el presente, en
donde las películas y videojuegos marcan el ritmo a seguir,
hasta el futuro, que es a donde apunto la mirada de todos los
diseñadores digitales, los gráficos en tres dimensiones
suponen un mundo que tan inmenso y cambiante, que todo aquel
que desea adentrarse en el mismo, si es que desea hacerlo de
la mejor manera posible, necesita entender la fuerza que
supone llevar a cuestas tres décadas de historia, que por lo
general quedan relegados detrás de a pantalla, tapados para
el público común debido a los resultados que este bagaje
cultural creo en el mundo del cine y los videojuegos.
A través del desarrollo del presente Proyecto de Graduación
se presenta una fructífera investigación histórica y
tecnológica referente a este ámbito de del art digital. Se
recorren los puntos más importantes, con el fin de cimentar
un entendimiento concienzudo, ubicado en una primera parte
del PG. Esta porción destinada a todo aquél que desea
86
mejorarse comprendiendo como evolucionaron los procesos que
ya utiliza hoy en día sin saber de dónde viene y cómo
evolucionaron.
Una segunda parte más teórico-práctica desarrolla preceptos
de la percepción a modo de que la persona que necesite el
lado más teórico con aplicaciones técnicas del desarrollo en
tres dimensiones pueda realizarlo con total seguridad y
conocimiento de causa.
Luego de realizar éste Proyecto de Graduación puede
concluirse que al adentrarse en el mundo de las tres
dimensiones hay elementos visuales que son tan importantes
como el modelado o la visualización misma de lo que quiere
crearse. Un desarrollador no conseguiría realizar una pieza
audiovisual satisfactoriamente si no tiene en cuenta
cuestiones como la forma y la importancia de ser reconocida e
interpretada como tal por el cerebro. No se puede esperar una
recepción efectiva en el observador si no se hace un uso
concienzudo del espacio que permite ubicar objetos dentro de
él, hay que saber mantener una clara relación entre figura y
fondo para lo que se diseñe sea claro y eficaz. Dentro de
dicho espacio, la luz y el color están profundamente ligados
a él y entre si. La luz es un acto revelador desde los
inicios de la humanidad y por esto es clara la importancia de
ella, no solo por el hecho físico de la iluminación si no
también por la importancia cultural de la misma. El color a
87
su vez tiene el poder de transmitir sentidos en la memoria
previa del observador con mucha más intensidad que la forma.
No hay horizonte o silueta de montaña que transmita mejor un
atardecer que el color anaranjado que éste trae aparejado.
El autor de éste PG recomienda a los diseñadores
audiovisuales de carreras de grado ahondar en el mundo de las
tres dimensiones, no hay una herramienta tan potente que
permita moldear la realidad a voluntad como lo hacen los
software tridimensionales como el Autodesk 3ds Max. Y para la
gente que haya hecho un terciario corto sobre el modelado y
la visualización 3d, recomienda seguir leyendo libros sobre
la teoría de la percepción, la principal herramienta para
todo diseñador.
Referencias bibliográficas
88
Arnheim Rudolf (1985). El pensamiento visual. Argentina:
Eudeba.
Arnheim Rudolf (1986). Arte y percepción visual: Psicología
de la visión creadora. Argentina: Eudeba.
Bibliografía
89
Arnheim Rudolf (1985). El pensamiento visual. Argentina:
Eudeba.
Arnheim Rudolf (1986). Arte y percepción visual: Psicología
de la visión creadora. Argentina: Eudeba.
Aumont Jacques (1992). La imagen. Argentina: Paidós.
Ian E. Gordon (2004). Theories of visual perception. Canada:
Psycology Press.
Kaniza Gaetano (1986). Gramática de la visión. Argentina:
Paidós.
Latner, Joel (1996). Fundamentos de la Gestalt. Chile: Cuatro
Vientos.
MEDIAactive (2006). El gran libro de 3D Studio Max. México:
Alfaomega.
Nicholas J. Wade y Michael T. Swanston. Visual perception:
An introduction. Canada: Taylor & Francis Inc.
Venditti Daniel (2000). 3D Studio Max. Argentina: MD.
An Historical Timeline of Computer Graphics and Animation.
Recuperado el 10 de Abril de 2009. Disponible en:
http://design.osu.edu/carlson/history/timeline.html
Wayne Carlson, The Ohio State University (2003). A Critical
History of Computer Graphics and Animation. Recuperado el 8
de abril de 2009. Disponible en:
http://design.osu.edu/carlson/history/lessons.html
The Internet Movie Database. Disponible en:
http://www.imdb.com/
90
Computer Graphics. Recuperado el 20 de mayo de 2009.
Disponible en:
http://www.cs.sun.ac.za/~lvzijl/courses/rw778/grafika/OpenG
Ltuts/Big/index.html
J. B. Calvert (2003). Vision and Colour. Recuperado el 28 de
agosto de 2009.Disponible en:
http://mysite.du.edu/~jcalvert/optics/colour.htm
20 CGI Classics - From T2 to Batman Begins to WALL-E.
Recuperado el 20 de mayo de 2009. Disponible en:
http://www.rottentomatoes.com/m/wall_e/news/1748529/20/20_c
gi_classics_from_t2_to_batman_begins_to_wall_e
Source Engine Features. Recuperado el 20 de mayo de 2009.
Disponible en:
http://developer.valvesoftware.com/wiki/Source_Engine_Featu
res
Xbox – History. Recuperado el 22 de mayo de 2009. Disponible
en: http://www.experiencefestival.com/xbox_-_history
Square Pictures Shuts Down. Recuperado el 21 de mayo de 2009.
Disponible en:
http://movies.ign.com/articles/306/306720p1.html
Transformation and Lighting Engine. Recupera el 19 de mayo de
2009. Disponibe en:
http://www.mindflux.com.au/products/wicked3d/tnl.html
91
Top Related