Java 3d Manual
Java 3d Manual
Java 3d Manual
El API Java 3D
Todo programa Java 3D está, al menos, parcialmente ensamblado por objetos del
árbol de clases Java 3D. Esta colección de objetos describe un universo virtual, que
va a ser renderizado. El API define unas 100 clases presentadas en el paquete
javax.media.j3d.
Hay cientos de campos y métodos en las clases del API Java 3D. Sin embargo, un
sencillo universo virtual que incluya animación puede construirse con unas pocas
clases. Este capítulo describe un conjunto mínimo de objetos y sus interacciones
para renderizar un universo virtual.
Esta página incluye el desarrollo de un sencillo pero completo programa Java 3D,
llamado HelloJava3Dd.java, que muestra un cubo giratorio. El programa de ejemplo
se desarrolla de forma incremental, y se presenta en varias versiones, para
demostrar cada parte del proceso de programación Java 3D.
Además del paquete corazón de Java 3D, se usan otros paquetes para escribir
programas Java 3D. Uno de estos paques es com.sun.j3d.utils el que normalmente se
referiere como clases de utilidades de Java 3D. El paquete de las clases corazón
incluye sólo las clases de menor nivel necesarias en la programación Java 3D.
Las clases de utilidades son adiciones convenientes y poderosas al corazón. Estas
clases se dividen en cuatro categorías: cargadores de contenidos, ayudas a la
construcción del escenario gráfico, clases de geometría y utilidades de conveniencia.
Al utilizar las clases de utilidades se reduce significativamente el número de líneas de
código en un programa Java 3D. Además de las clases de los paquetes corazón y de
utilidades de Java 3D, todo programa 3D usa clases de los paquetes java.awt y
javax.vecmath. El paquete java.awt define el "Abstract Windowing Toolkit" (AWT). Las
clases AWT crean una ventana para mostrar el renderizado. El paquete javax.vecmath
define clases de vectores matemáticos para puntos, vectores, matrices y otros
objetos matemáticos.
En el resto del texto, el término objeto visual se utilizará para referirnos a un
"objeto del escenario gráfico" (por ejemplo, un cubo o una esfera). El término
objeto sólo se usará para referirse a un ejemplar de una clase. El término
contenido se usará para referirnos a objetos visuales en un escenario gráfico como
un todo.
Construir un Escenario Gráfico
Un universo virtual Java 3D se crea desde un escenario gráfico. Un escenario gráfico
se crea usando ejemplares de clases Java 3D. El escenario gráfico está ensamblado
desde objetos que definen la geometría, los sonidos, las luces, la localización, la
orientación y la apariencia de los objetos visuales y sonoros.
Una definición común de un escenario gráfico es una estructura de datos compuesta
de nodos y arcos. Un nodo es un elemento dato y un arco es una relación entre
elementos datos. Los nodos en un escenario gráfico son los ejemplares de las clases
Java 3D. Los arcos representan dos tipos de relaciones entre ejemplares Java 3D.
La relación más común es padre-hijo. Un nodo Group puede tener cualquier número
de hijos, pero sólo un padre. Un nodo hoja sólo puede tener un padre y no puede
tener hijos. La otra relación es una referencia. Una referencia asocia un objeto
NodeComponent con un nodo del escenario gráfico. Los objetos NodeComponent
definen la geometría y los atributos de apariencia usados para renderizar los objetos
visuales.
Un escenario gráfico Java 3D está construido de objetos nodos con relaciones
padre-hijo formando una estructura de árbol. En una estructura de árbol, un nodo es
el raíz. Se peude acceder a otros nodos siguiendo los arcos desde el raíz. Los nodos
de un árbol no forman bucles. Un escenario gráfico está formado desde los árboles
con raíces en los objetos Locale. Los NodeComponents y las referencias a arcos
no forman parte del escenario gráfico.
Sólo existe un camino desde la raíz de un árbol a cada una de las hojas; por lo tanto,
sólo hay un camino desde la raíz hasta el escenario gráfico de cada nodo hoja. El
camino desde la raíz de un escenario gráfico hasta una hoja especificada es el
camino al escenario gráfico del nodo hoja. Como un camino de un escenario gráfico
trata exactamente con un sola hoja, hay un camino de escenario gráfico para cada
hoja en el escenario.
Todo camino de escenario gráfico en un escenario gráfico Java 3D especifica
completamente la información de estado de su hoja. Esta información incluye, la
localización, la orientación y el tamaño del objeto visual. Consecuentemente, los
atributos visuales de cada objeto visual dependen sólo de su camino de escenario
gráfico. El renderizador Java 3D se aprovecha de este echo y renderiza las hojas en
el orden que él determina más eficiente. El programador Java 3D normalmente no
tiene control sobre el orden de renderizado de los objetos.
Las representaciones gráficas de un escenario gráfico pueden servir como
herramienta de diseño y/o documentación para los programas Java 3D. Los
escenarios gráficos se dibujan usando símbolos gráficos estándards como se ve en la
Figura 1-1. Los programas Java 3D podrían tener más objetos que los que hay en su
escenerio gráfico.
Para diseñar un universo virtual Java 3D se dibuja un escenario gráfico usando un
conjunto de símbolos estándard. Después de completar el diseño, este escenerio
gráfico es la especificación para el programa. Después de completar el programa, el
mismo escenario gráfico es una representación concisa del programa (asumiendo
que se siguió la especificación).
Cada uno de los símbolos mostrados al lado izquierdo de la Figura 1.1 representa un
sólo objeto cuando se usa en un escenario gráfico. Los dos primeros símbolos
representan objetos de clases específicas: VirtualUniverse y Locale. Lo siguientes
tres símbolos de la izquierda representan objetos de las clases Group, Leaf, y
NodeComponent. Estos tres símbolos normalmente tienen anotaciones para indicar
la subclase del objeto específico. El último símbolo se usa para representar otras
clases de objetos.
El símbolo de la flecha sólida representa una relación padre-hijo entre dos objetos.
La flecha punteada es una referencia a otro objeto. Los objetos referenciados pueden
ser compartidos entre diferentes ramas de una escenario gráfico. En la Figura 1-2,
podemos ver un sencillo escenerio gráfico:
Figura 1-2. Primer Ejemplo de Escenario Gráfico
Es posible crear un escenario gráfico ilegal. Podemos ver uno en la Figura 1-3. Este
escenario es ilegal porque viola las propiedades de un DAG. El problema son los dos
objetos TransformGroup que tienen al mismo objeto Shape3D como hijo.
Recuerda que una hoja sólo puede tener un padre. En otras palabras, sólo puede
haber un camino desde el objeto Locale hasta la hoja (o un camino desde la hoja
hasta el objeto Loale).
Podríamos pensar que la estructura mostrada en la figura 1-3 define tres objetos
visuales en un universo virtual. Pero el escenario gráfico define dos objetos visuales
que re-usan el objeto visual (Shape3D) del lado derecho de la figura.
Conceptualmente, cada objeto TransformGroup que apadrina al ejemplar
compartido de Shape3D podría situar una imagen en el objeto visual en diferentes
localizaciones. Sin embargo, es un escenario gráfico ilegal porque el arco padre-hijo
no forma un árbol. En este ejemplo, el resultado es que el objeto Shape3D tiene
más de un padre.
Las explicaciones del árbol y de las estructuras DAG son correctas. Sin embargo, el
sistema de ejecución Java 3D reporta el error en términos de la relación hijo-padre.
Un resultado de la limitación de la estructura de árbol es que cada objeto Shape3D
está limitado a un sólo padre. Para el ejemplo de la Figura 1-3, se lanzará una
excepción 'multiple parent' en el momento de la ejecución. La Figura 1-4, con un
padre para cada objeto Shape3D, muestra una posible solución para este escenario
gráfico.
Figura 1-3. Un Escenario Gráfico Ilegal
Un programa Java 3D que define un escenario gráfico ilegal podría compilarse, pero
no se renderiza. Cuando se ejecuta un programa Java 3D que define un escenario
gráfico ilegal, el sistema Java 3D detecta el problema y lanza una excepción. El
programa podría estár ejecutandose y consecuentemente deberíamos pararlo. Sin
embargo, no se renderizará ninguna imagen.
Figura 1-7. La clase SimpleUniverse proporciona un universo virtual mínimo, indicado por la línea punteada azul
Paquete: com.sun.j3d.utils.universe
Esta clase configura un entorno de usuario mínimo para obtener rápida y fácilmente un
programa Java 3D y ejecutarlo.
Esta clase de utilidad crea todos los objetos necesarios para la rama de vista gráfica.
Especificamente crea los objetos Locale, VirtualUniverse, ViewingPlatform, y Viewer (todos
con sus valores por defecto). Los objetos tiene las relaciones apropiadas para formar la rama de
vista gráfica.
SimpleUniverse proporciona toda la funcionalidad necesaria para muchas aplicaciones Java 3D
básicas. Viewer y ViewingPlatform son clases de conveniencia. estas clases usan las clases
View y ViewPlatform del corazón Java.
SimpleUniverse()
Construye un sencillo universo virtual.
SimpleUniverse(Canvas3D canvas3D)
Construye un sencillo universo virtual con una referencia al objeto Canvas3D nombrado.
El objeto SimpleUniverse crea una rama de vista gráfica completa para un universo
virtual. Esta rama incluye un plato de imagen. Un plato de imagen es el rectángulo
conceptual donde se proyecta el contenido para formar la imagen renderizada. El
objeto Canvas3D, que proporciona una imagen en una ventana de nuestra pantalla,
puede ser el plato de imagen.
La Figura 1-9 muestra la relación entre el plato de imagen, la posición del ojo, y el
universo virtual. La posición del ojo está detrás del plato de imagen. Los objetos
visuales delante del plato de imagen son renderizados en el plato de imagen. El
renderizado puede ser como una proyección de los objetos visuales sobre el plato de
imagen. Esta idea se ilustra con los cuatro proyectores de la imagen (líneas
punteadas).
Figura 1-9. Dibujo Conceptual de un Plato de Imagen y la Posición del Ojo en un Universo Virtual
Paquete: com.sun.j3d.utils.universe
Paquete: com.sun.j3d.utils.universe
void addBranchGraph(BranchGroup bg)
Se usa para añadir Nodos al objeto Locale del escenario gráfico creado por el SimpleUniverse.
Se usa para añadir una rama de contenido gráfico al universo virtual.
ViewingPlatform getViewingPlatform()
Se usa para recuperar el objeto ViewingPlatform del SimpleUniverse ejemplarizado. Este
método se usa con el método setNominalViewingTransform() de ViewingPlatform para
ajustar la localización de la posición de vista.
while(true) {
Procesos de entrada
If (petición de salida) break
Realiza comportamientos
Atraviesa el escenario gráfico
y renderiza los objetos visuales
}
Limpieza y salida
El paso 3 de esta sencilla receta es crear la rama de contenido gráfico. Esta rama se
crea en el Fragmento de código 1-2. Probablemente sea la rama de contenido gráfico
más sencilla posible. Contiene un objeto gráfico estático, un ColorCube. Éste está
localizado en el origen del sistema de coordenadas del universo virtual. Con la
localización y orientación dadas de la dirección de la vista del cubo, el cubo aparece
como un rectángulo cuando es renderizado. La imagen que mostrará este programa
la podemos ver en la Figura 1-12:
1. public BranchGroup createSceneGraph() {
2. // Create the root of the branch graph
3. BranchGroup objRoot = new BranchGroup();
4.
5. // Create a simple shape leaf node, add it to the scene graph.
6. // ColorCube is a Convenience Utility class
7. objRoot.addChild(new ColorCube(0.4));
8.
9. return objRoot;
10. } // end of createSceneGraph method of HelloJava3Da
11. } // end of class HelloJava3Da
Fragmento de código 1-2. Método createSceneGraph de la clase HelloJava3D
paquete: com.sun.j3d.utils.applet
MainFrame crea un applet en una aplicación. Una clase derivada de Applet podría tener un
método main() que llame al constructor MainFrame. MainFrame extiende java.awt.Frame e
implementa java.lang.Runnable, java.applet.AppletStub, y java.applet.AppletContext. La clase MainFrame
es Copyright © 1996-1998 de Jef Poskanzer email: jef@acme.com en
http://www.acme.com/java/.
MainFrame(java.applet.Applet applet, int width, int height)
Crea un objeto MainFrame que ejecuta un applet como una aplicación.
Parámetros:
● applet – el constructor de una clase derivada de Applet. MainFrame proporciona un marco
AWT para este applet.
● width – la anchura de la ventana en pixels
● height – la altura de la ventana en pixels
1. import java.applet.Applet;
2. import java.awt.BorderLayout;
3. import java.awt.Frame;
4. import java.awt.event.*;
5. import com.sun.j3d.utils.applet.MainFrame;
6. import com.sun.j3d.utils.universe.*;
7. import com.sun.j3d.utils.geometry.ColorCube;
8. import javax.media.j3d.*;
9. import javax.vecmath.*;
Fragmento de código 1-4. Sentencias Import para HelloJava3Da
Como no se explica cada línea de código del ejemplo HelloJava3Da, las ideas
básicas de ensamblar un programa Java 3D deberían estar claras habiendo leído el
ejemplo. La siguiente sección presenta cada una de las clases usadas en el
programa.
Clase Canvas3D
La clase Canvas3D deriva de la clase Canvas del AWT. Al menos un objeto
Canvas3D debe ser referenciado en la rama de vista gráfica del escenario gráfico.
Constructor de Canvas3D
Canvas3D(GraphicsConfiguration graphicsconfiguration)
Construye e inicializa un nuevo objeto Canvas3D que el Java 3D puede renderizar dando un
objeto GraphicsConfiguration válido. Es una extensión de la clase Canvas del AWT.
Clase Transform3D
Los objetos Transform3D representan transformaciones de geometrías 3D como
una traslación o una rotación. Estos objetos normalmente sólo se usan en la
creacción de un objeto TransformGroup. Primero, se construye el objeto
Transform3D, posiblemente desde una combinación de objetos Transform3D.
Luego se construye el objeto TransformGroup usando el objeto Transform3D.
Constructor por Defecto de Transform3D
Clase TransformGroup
Como una subclase de la clase Group, los ejemplares de TransformGroup se usan
en la creacción de escenarios gráficos y tienen una colección de objetos nodos como
hijos. Los objetos TransformGroup contienen transformaciones geométricas como
traslaciones y rotaciones. La transformación normalmente se crea en un objeto
Transform3D, que no es un objeto del escenario gráfico.
Constructores de TransformGroup
Parámetros:
● t1 - el objeto transform3D
Parámetros:
● t1 - la transformación a copiar.
Clase Vector3f
Vector3f es una clase matemática que se encuentra en el paquete javax.vecmath para
especificar un vector usando tres valores de punto flotante. Los objetos Vector se
usan frecuentemente para especificar traslaciones de geometrías. Los objetos
Vector3f no se usan directamente en la construcción de un escenario gráfico. Se
usan para especificar la traslaciones, superficies normales, u otras cosas.
Constructores de Vector3f
Un vector de 3 elementos que es representado por puntos flotantes de precisión sencilla para las
coordenadas x, y, y z.
Vector3f()
Construye e inicializa un Vector3f a (0,0,0).
Vector3f(float x, float y, float z)
Construye e inicializa un Vector3f desde las coordenadas x, y, z especificadas.
Clase ColorCube
ColorCube es una clase de utilidad que se encuentra en el paquete
com.sun.j3d.utils.geometry que define la geometría y colores de un cubo centrado en el
origen y con diferentes colores en cada cara. El objeto ColorCube es un cubo que
tiene 2 métros de arista. Si un cubo sin rotar se sitúa en el origen (como en
HelloJava3Da), se verá la cara roja desde la localización de visión nominal. Los
otros colores son azul, magenta, amarillo, verde y cian.
Constructores de ColorCube
Paquete: com.sun.j3d.utils.geometry
Un ColorCube es un objeto visual, un cubo con un color diferente en cada cara. ColorCube
extiende la clase Shape3D; por lo tanto, es un nodo hoja. ColorCube es fácil de usar cuando
se pone junto a un universo virtual.
ColorCube()
Costruye un cubo de color del tamaño por defecto. Por defecto, una esquina está situada a 1
metro de cada uno de los ejes desde el origen, resultando un cubo que está centrado en el
origen y tiene 2 metros de alto, de ancho y de profundo.
ColorCube(double scale)
Construye un cubo de color escalado por el valor especificado. El tamaño por defecto es 2
metros de lado. El ColorCube resultante tiene esquinas en (scale, scale, scale) y (-scale, -scale,
-scale).
Rotar el Cubo
Una simple rotación del cubo puede hacer que se vea más de una de sus caras. El
primer paso es crear la transformación deseada usando un objeto Transform3D.
El Fragmento de Código 1-5 incorpora un objeto TransformGroup en el escenario
gráfico para rotar el cubo sobre el eje x. Primero se crea la transformación de
rotación usando el objeto rotate de Transform3D. Este objeto se crea en la línea 6.
La rotación se especifica usando el método rotX() de la línea 8. Entonces se crea el
objeto TransformGroup en la línea 10 para contener la transformación de rotación.
Dos parámetros especifican la rotación: el eje de revolución, y el ángulo de rotación.
El eje se elige seleccionando el método apropiado. El ángulo de rotación es el valor
que se le pasa como argumento. Como el ángulo de rotación se especifica en
radianes, el valor PI/4 es 1/8 de una rotación completa, o 45 grados.
Después de crear el objeto Transform3D, rotate, se usa en la creacción del objeto
TransformGroup objRotate (línea 10). El objeto Transform3D se usa en el escenario
gráfico. Entonces el objeto objRotate hace que ColorCube sea su hijo (línea 11). A
su vez, el objeto objRoot hace a objRotate como su hijo (línea 12).
1. public BranchGroup createSceneGraph() {
2. // Create the root of the branch graph
3. BranchGroup objRoot = new BranchGroup();
4.
5. // rotate object has composite transformation matrix
6. Transform3D rotate = new Transform3D();
7.
8. rotate.rotX(Math.PI/4.0d);
9.
10. TransformGroup objRotate = new TransformGroup(rotate);
11. objRotate.addChild(new ColorCube(0.4));
12. objRoot.addChild(objRotate);
13. return objRoot;
14. } // end of createSceneGraph method
Fragmento de código 1-5. Una Rotación en la Rama de Contenido Gráfico
Capacidades y Rendimiento
El escenario gráfico construido por un programa Java 3D podría usarse directamente
para renderizar. Sin embargo, la representación no es muy eficiente. La flexibilidad
construida dentro de cada objeto escenario gráfico (que no se van a discutir en este
tutorial) crean un representación sub-optima del universo virtual. Para mejorar el
rendimiento de la renderización se usa una representación más eficiente del universo
virtual.
Java 3D tiene una representación interna para una universo virtual y los métodos
para hacer la conversión. Hay dos formas para hacer que el sistema Java 3D haga la
conversión de la representación interna. Una forma es compilar todas las ramas
gráficas. La otra forma es insertar una rama gráfica en un universo virtual para darle
vida.
Compilar Contenidos
El objeto BranchGroup tiene un método compilador. Llamando a este método se
convierte la rama gráfica completa que hay debajo del BranchGroup a la
representación interna de Java 3D de la rama gráfica. Además de la conversión, la
representación interna podría optimizarse de una o varias maneras.
Las posibles optimizaciones no se especifican en el API Java 3D. Sin embargo, se
puede ganar en eficiencia de varias formas. Una de las posibles optimizaciones es
combinar TransformGroups con caminos de escenario gráfico. Por ejemplo, si un
escenario gráfico tiene dos objetos TransformGroup en una relacion padre-hijo
pueden ser representados por un objeto TransformGroup. Otra posibilidad es
combinar objetos Shape3D que tienen una relación estática física. Estos tipos de
optimizaciones se hacen posibles cuando las capacidades no se configuran.
La Figura 1-16 presenta una representación conceptual de la conversión a una
representación más eficiente. El escenario gráfico del lado izquierdo es compilado y
transformado en la representación interna mostrada en el lado derecho. La figura
sólo representa el concepto de representación interna, no como Java 3D realmente
lo hace.
Figura 1-16 Ejemplo Conceptual del Resultado de Compilar una Escenario Gráfico
Capacidades
Una vez que una rama gráfica empieza a vivir o es compilada el sistema de
renderizado Java 3D la convierte a una representación interna más eficiente. El
efecto más importante de esta conversión es la mejora del rendimiento de
renderizado.
Pero también tiene otros efectos, uno de ellos es fijar el valor de transformaciones y
otros objetos en el escenario gráfico. A menos que especificamente lo
proporcionemos en el programa, este no tendrá la capacidad de cambiar los valores
de los objetos del escenario gráfico una vez que estén vivos.
Hay casos en que un programa necesita la capacidad de cambiar estos valores
después de que estén vivos. Por ejemplo, cambiar el valor de un objeto
TransformGroup crea animaciones. Para que esto suceda, la transforamción debe
poder cambiar después de estar viva. La lista de parámetros a los que se puede
acceder, y de que forma, se llama capacidades del objeto.
Cada SceneGraphObject tiene un conjunto de bits de capacidad. Los valores de
estos bits determinan que capacidades existen para el objeto después de compilarlo
o de darle vida. El conjunto de capacidades varía con la clase.
Lista Parcial de Métodos de SceneGraphObject
Las dos capacidades listadas aquí son las únicas definidas por TransformGroup. Éste hereda
varias capacidades de sus clases ancestros: Group y Node. La configuración de capacidades se
puede seleccionar, eliminar o recuperar usando los métodos definidos en SceneGraphObject.
ALLOW_TRANSFORM_READ
Especifa que el nodo TransformGroup permite acceder a la información de transformación de
su objeto.
ALLOW_TRANSFORM_WRITE
Especifica que el nodo TransformGroup permite escribir la información de transformación de
su objeto.
parámetros:
● alpha – la función de variación de tiempo para referencia.
● target – el objeto TransformGroup a modificar.
La clase Alpha proporciona objetos para convertir la hora en un valor alpha (un valor entre 0 y
1). El objeto Alpha es efectivamente una función de tiempo que genera valores alpha entre cero
y uno. La función "f(t)" y las características del objeto Alpha están determinadas por
parámetros definidos por el usuario:
Alpha()
Bucle continuo con un periodo de un segundo.
Alpha(int loopCount, long increasingAlphaDuration)
Este constructor toma sólo loopCount e increasingAlphaDuration como parámetros y asigna
los valores por derecto a todos los demás parámetros, resultando un objeto Alpha que produce
valores desde cero a uno crecientes. Esto se repite el número de veces especificado por
loopCount. Si loopCount es –1, el objeto alpha se repite indefinidamente. El tiempo que tarde
en ir desde cero hasta uno está especificando en el segundo parámetro usando una escala de
milisegundos.
Parámetros:
● loopCount - número de veces que se ejecuta este objeto alpha; un valor de -1 especifica
un bucle indefinido..
● increasingAlphaDuration - tiempo en milisegundos que tarda el objeto alpha en ir de cero
a uno.
Región Progamada
Como se mencionó anteriormente, cada comportamiento tiene unos límites
programados. Estos límites se configuran usando el método setSchedulingBounds
de la clase Behavior.
Hay varias formas de especificar una región programada, la más sencilla es crear un
objeto BoundingSphere. Otras opciones incluyen BoundingBox y
BoundingPolytope.
Método setSchedulingBounds de Behavior
void setSchedulingBounds(Bounds region)
Selecciona la región programada del Behavior a unos límites especificados.
Parámetros:
● region - Los límites que contienen la región programada del Behavior.
Clase BoundingSphere
Especificar un límite esférico se consigue especificando un punto central y un rádio
para la esfera. El uso normal de este tipo de límites es usar el centro a (0, 0, 0).
Entonces el radio se selecciona lo suficientemente grande como para contener el
objeto visual, incluyendo todas las posibles localizaciones del objeto.
Lista Parcial de Constructores de BoundingSphere
Esta clase define una región de límites esférica que está definida por un punto central y un
rádio.
BoundingSphere()
Este constructor crea una límite esférico centrado en el origen (0, 0, 0) con un radio de 1.
BoundingSphere(Point3d center, double radius)
Construye e inicializa un BoundingSphere usando el punto central y el rádio especificados.
Este fragmento de código se usa con otros fragmentos anteriores para crear el
programa de ejemplo HelloJava3Dc.java. Al ejecutar la aplicación veremos como se
renderiza el ColorCube con un comportamiento de rotación cada cuatro segundos.
El programa HelloJava3Dc crea el escenario gráfico de la Figura 1-18. El objeto
rotation es tanto hijo del TransformGroup como una referencia a él. Aunque esta
relación parece violar la restricciones de bucles dentro del escenaio gráfico, no lo
hace. Recuerda que los arcos de referencia (flecha punteada) no son parte del
escenario gráfico. La línea punteada desde el Behavior hacia el TransformGroup
es esta referencia.
Figura 1-18 Escenario Gráfico del Ejemplo HelloJava3Dc.
Mientras que el objeto Shape3D no esté vivo o compilado, las referencias a los
componentes pueden modicarse con los métodos del siguiente recuadro. Estos métodos
pueden usarse sobre objetos Shape3D vivos o compilados si se configuran las
capacidades del objeto primero. El otro recuadro lista las capacidades de Shape3D.
Lista Parcial de Métodos de Shape3D
Los objetos Shape3D también heredan capacidades de las clases SceneGrpahObject, Node, y
Leaf.
ALLOW_GEOMETRY_READ | WRITE
ALLOW_APPEARANCE_READ | WRITE
ALLOW_COLLISION_BOUNDS_READ | WRITE
NodeComponent
Los objetos NodeComponent contienen las especificaciones exactas de los atributos de
un objeto visual. Cada una de las muchas subclases de NodeComponent define ciertos
atributos visuales. La Figura 2-3 muestra una parte del árbol del API Java 3D que
contiene las clases NodeComponent y sus descendientes.
Figura 2-3. Visión Parcial del Árbol de Clases de Java 3D Mostrando las Subclases de NodeComponent
Usar Shape3D como base para la creación de clases de objetos visuales facilita su uso
en programas Java 3D. Las clases de objetos visuales pueden usarse tan facilmente
como la clase ColorCube en los ejemplos HelloJava3D de la página anterior. Se puede
llamar al constructor e insertar el objeto creado como hijo de algún Group en una línea
del codigo. En la siguiente línea de ejemplo, objRoot es un ejemplar de Group. Este
código crea un VisualObject y lo añade como hijo de objRoot en el escenario gráfico:
objRoot.addChild(new VisualObject());
El constructor VisualObject crea el VisualObject creando un objeto Shape3D que
referencia al NodeComponents creado por los métodos createGeometry() y
createAppearance(). El método createGeometry() crea un NodeComponent Geometry para
suarlo en el objeto visual. El método createAppearance() es responsable de crear el
NodeComponent que define la Appearance del objeto visual.
Otra posible organización de un objeto visual es definir una clase contenedor no
derivada del API de clases Java 3D. En este diseño, la clase del objeto visual podría
contener un Group Node o un Shape3D como la raíz del sub-gráfico que define. La
clase debe definir método(s) para devolver una referencia a su raíz. Esta técnica tiene
un poco más de trabajo, pero podría ser más fácil de entender.
Una tercera organización posible de una clase de objeto visual es una similar a las clases
Box, Cone, Cylinder, y Sphere definidas en el paquete com.sun.j3d.utils.geometry. Cada
clase desciende de Primitive, que a su vez desciende de Group. Los detalles de diseño
de Primitive y sus descendientes no se explican en este turorial, pero el código fuente
de todas estas clases está disponible con la distribución del API Java 3D. Del código
fuente de la clase Primitive y de otras clases de utilidad, el lector puede aprender más
sobre esta aproximación al diseño de clases.
Clases de Utilidades Geométricas
Esta sección cubre las clases de utilidad para crear gráficos primitivos geométricos como
cajas, conos, cilindros y esferas. Los primitivos geométricos son la segunda forma más
fácil para crear contenidos en un universo virtual. La más fácil es usar la clase
ColorCube.
Las clases primitivas proporcionan al programador más flexibilidad que la clase
ColorCube. Un objeto ColorCube define la geometría y el cólor en un componente
Geometry. Consecuentemente, todo en el ColorCube es fijo, excepto su tamaño. El
tamaño de un ColorCube sólo se especifica cuando se crea.
Un objeto primitivo proporciona más flexibilidad especificando la forma sin especificar el
color. En una clase de utilidad geométrica primitiva, el programador no puede cambiar la
geometría, pero puede cambiar la apariencia. Las clases primitivas le dan al
programador la flexibilidad de tener varios ejemplares de la misma forma geométrica
primitiva donde cada una tiene una apariencia diferente haciendo una referencia a un
NodeComponent de apariencia diferente.
Las clases de utilidad Box, Cone, Cylinder y Sphere están definidas en el paquete
com.sun.j3d.utils.geometry. En la Figura 2-3 podemos ver la porción del paquete
com.sun.j3d.utils.geometry que contiene las clases primitivas.
Box
La clase geométrica Box crea cubos de 3 dimensiones. Los valores por defecto para la
longitud, anchura y altura son 2 metros, con el centro en el origen, resultando en un
cubo con esquinas en ( -1, -1, -1) y ( 1, 1, 1). La longitud, la anchura y la altura pueden
especificarse en el momento de la creacción del objeto. Por supuesto, se pueden usar
TransformGroup junto con el camino del escenario gráfico a un Bos para cambiar la
localización u orientación de los ejemplares creados con Box.
Box
Paquete: com.sun.j3d.utils.geometry
Mientras que los constructores son diferentes para cada clase, las clases Box, Cone, y
Cylinder comparten los mismos métodos:
Métodos de Box, Cone, y Cylinder
Paquete: com.sun.j3d.utils.geometry
Estos métodos están definidos en todas las clases primitivas: Box, Cone, y Cylinder. Estos
Primitivos se componen de varios objetos Shape3D en un grupo.
Shape3D getShape(int id)
Obtiene una de las caras (Shape3D) del primitivo que contiene la geometría y apariencia. Los
objetos Box, Cone, y Cylinder están compuestos por más de un objeto Shape3D, cada uno
con su propio componente Geometry.
void setAppearance(Appearance appearance)
Selecciona la apariencia del primitivo (para todos los objetos Shape3D).
Cone
La clase Cone define conos centrados en el origen y con el eje central alineado con el
eje Y. Los valores por defecto para el radio y la altura son 1,0 y 2,0 metros
respectivamente.
Lista Parcial de Constructores de Cone
Paquete: com.sun.j3d.utils.geometry
Cylinder
La clase Cylinder crea objetos cilíndricos con sus eje central alineado con el eje Y. Los
valores por defecto para el radio y la altura son 1,0 y 2,0 metros respectivamente.
Lista Parcial de Constructores de Cylinder
Paquete: com.sun.j3d.utils.geometry
Sphere
La clase Sphere crea objetos visuales esféricos con el centro en el origen. El radio por
defecto es de 1,0 metros.
Lista Parcial de Constructores de Sphere
Paquete: com.sun.j3d.utils.geometry
Paquete: com.sun.j3d.utils.geometry
Como una extensión de Primitive, un Sphere es un objeto Group que tiene un sólo objeto hijo
Shape3D.
Shape3D getShape()
Obtiene el Shape3D que contiene la geometría y la apariencia.
Shape3D getShape(int id)
Este método se incluye por compatibilidad con otras clases primitivas: Box, Cone, y Cylinder.
Sin embargo, como una Sphere sólo tiene un objeto Shape3D, sólo puede ser llamado con id =
1.
void setAppearance(Appearance appearance)
Selecciona la apariencia de la esfera.
ColorCube
La clase ColorCube se presenta aquí para constrastarla con las clases primtivas. Esta
clase desciende de otra parte del árbol de clases Java 3D. Este árbol de clases podemos
verlo en la Figura 2-5.
ColorCube es la única clase distribuida con el API Java 3D que permite a los
programadores ignorar los problemas con los colores y las luces. Por esta razón, la clase
ColorCube es útil para ensamblar rápidamente escenario gráficos para probar
prototipos.
En la rama gráfica que empieza con el objeto BranchGroup creada por el objeto
ConeYoyo, el camino de escenario gráfico a cada objeto Cone empieza con el objeto
TransformGroup que especifica la traslación, seguido por el TransformGroup que
especifica la rotación, y termina en el objeto Cone.
Varios escenarios gráficos podrían presentar el mismo mundo virtual. Tomando el
escenario gráfico de la Figura 2-6 como ejemplo, se pueden hacer algunos cambios
obvios. Un cambio elimina el objeto BranchGroup cuyo hijo es el objeto ConeYoyo e
inserta el objeto ConeYoyo directamente en el objeto Locale. Otro cambio combina los
dos objetos TransformGroup dentro del objeto ConeYoyo. Las transformaciones se
han mostrado sólo como ejemplos.
Los nodos Shape3D de los objetos Cone referencian a los componentes Geometry.
Estos son internos al objeto Cone. Los objetos Shape3D del Cone son hijos de un
Group en el Cone. Como los objetos Cone descienden de Group, el mismo Cone (u
otro objeto Primitivo) no puede usarse más de una vez en un escenario gráfico. Abajo
podemos ver un ejemplo de mensaje de error producido cuando intentamos usar el
mismo objeto Cone dos veces en un único escenario gráfico. Este error no existe en el
programa de ejemplo distribuido en este tutorial.
Geometrías Primitivas
El árbol de clases de la Figura 2-4 muestra Primitive como la superclase de Box, Cone,
Cylinder, y Sphere. Define un número de campos y métodos comunes a estas clases,
así como los valores por defecto para los campos.
La clase Primitive proporciona una forma de compartir nodos componentes Geometry
entre ejemplares de un primitivo del mismo tamaño. Por defecto, todos los primitivos
del mismo tamaño comparte un nodo componente de geometría. Un ejemplo de un
campo definido en la clase Primitive es el entero GEOMETRY_NOT_SHARED. Este campo
especifica la geometría que se está creando y que no será compartido con otros.
Seleccionamos esta bandera para evitar que la geometría sea compartida entre
primtivos de los mismos parámetros (es decir, esferas con rádio 1).
myCone.setPrimitiveFlags(Primitive.GEOMETRY_NOT_SHARED);
Lista Parcial de Métodos Primitive
Paquete: com.sun.j3d.utils.geometry
Paquete: javax.vecmath
Las clases Tuple* casi nunca se utilizan directamente en programas Java pero proporcionan la
base para las clases Point*, Color*, Vector*, y TexCoord*. En particular Tuple2f
proporciona la base para Point2f, Color2f, y TexCoord2f. Los constructores listados aquí
están disponibles para estas subclases. Tuple3f y Tuple4f tienen un conjunto similar de
constructores:
Tuple2f()
Construye e inicializa un objeto Tuple con las coordenadas (0,0).
Tuple2f(float x, float y)
Construye e inicializa un objeto Tuple con las coordenadas x e y especificadas.
Tuple2f(float[] t)
Construye e inicializa un objeto Tuple desde el array especificado.
Tuple2f(Tuple2f t)
Construye e inicializa un objeto Tuple desde los datos de otro objeto Tuple.
Tuple2f(Tuple2d t)
Construye e inicializa un objeto Tuple desde los datos de otro objeto Tuple.
Lista Parcial de Métodos de Tuple2f
Paquete: javax.vecmath
Las clases Tuple* casi nunca se utilizan directamente en programas Java pero proporcionan la
base para las clases Point*, Color*, Vector*, y TexCoord*. En particular Tuple2f
proporciona la base para Point2f, Color2f, y TexCoord2f. Los métodos listados aquí están
disponibles para estas subclases. Tuple3f y Tuple4f tienen un conjunto similar de métodos:
void set(float x, float y)
void set(float[] t)
Seleccionan el valor de este tuple desde los valores especificados.
boolean equals(Tuple2f t1)
Devuelven true si los datos del Tuple t1 son iguales a los datos correspondientes de este tuple.
final void add(Tuple2f t1)
Selecciona el valor de este tuple al vector suma de si mismo y Tuple t1.
void add(Tuple2f t1, Tuple2f t2)
Selecciona el valor de este tuple al vector suma de los tuples t1 y t2.
void sub(Tuple2f t1, Tuple2f t2)
Selecciona el valor de este tuple al vector resta de los tuples t1 y t2 (this = t1 - t2).
void sub(Tuple2f t1)
Selecciona el valor de este tuple al vector resta de su mismo menos t1.
void negate()
Niega el valor de este vector.
void negate(Tuple2f t1)
Selecciona el valor de este tuple a la negación del tuple t1.
void absolute()
Selecciona todos los componentes de este tuple a sus valores absolutos.
void absolute(Tuple2f t)
Selecciona todos los componentes del tuple parámetros a sus valores absolutos, y sitúa los
valores modificados en este tuple.
Hay sutíles, pero predecibles diferencias entre los constructores y métodos de Tuple*,
debido al número y tipo de los datos. Por ejemplo, Tuple3d difiere de Tuple2f, porque
tiene un método constructor:
Tuple3d(double x, double y, double z);
que espera tres y no dos, parametros de pundo flotante de doble precision, no simple
precisión.
Todas las clases Tuple* tienen miembros públicos. Para Tuple2*, hay x e y. Para
Tuple3* los miembros son x, y, y z. Para Tuple4* los miembros son x, y, z, y w.
Clases Point
Los objetos Point* normalmente representan coordenadas de un vértice, aunque
también pueden representar la posición de una imagen, fuente de un punto de luz,
localización espacial de un sonido, u otro dato posicional. Los constructores de las clases
Point* son muy similares a los de Tuple*, excepto en que devuelven objetos Point*.
Lista Parcial de Métodos de Point3f
Paquete: javax.vecmath
Las clases Point* descienden de las clases Tuple*. Cada ejemplar de las clases Point*
representa un solo punto en un espacio de dos, tres o cuatro dimensiones. Además de los
métodos de Tuple*, las clases Point* tienen métodos adicionales, algunos de los cuales
podemos ver aquí:
float distance(Point3f p1)
Devuelve la distancia Euclideana entre este punto y el punto p1.
float distanceSquared(Point3f p1)
Devuelve el cuadrado de la distanciá Euclideana entre este punto y el punto p1.
float distanceL1(Point3f p1)
Devuelve la distancia L (Manhattan) entre este punto y el punto p1. La distancia L es igual a=
abs(x1 - x2) + abs(y1 - y2) + abs(z1 - z2)
Clases Color
Los objetos Color* representan un color, que puede ser para un vértice, propiedad de
un material, niebla, u otro objeto visual. Los colores se especifican con Color3* o
Color4*, y sólo para datos de byte o coma flotante de simple precisión. Los objetos
Color3* especifican un color como una combinación de valores rojo, verde y azul
(RGB). Los objetos Color4* especifican un valor de transpariencia, además del RGB.
(por defecto, los objetos Color3* son opacos). Para los tipos de datos de tamaño byte,
los valores de colores van desde 0 hasta 255 inclusives. Para tipos de datos de coma
flotante de simple precisión, los valores van entre 0,0 y 1,0 inclusives.
De nuevo, los constructores para las clases Color* son similares a los de Tuple*,
excepto en que devuelven objetos Color*. Las clases Color* no tienen métodos
adicionales, por eso sólo tratan con los métodos que heredan de sus superclases
Tuple*.
Algunas veces es conveniente crear constantes para los colores que se usan
repetidamente en la creacción de objetos visuales. Por ejemplo,
Color3f rojo = new Color3f(1.0f, 0.0f, 0.0f);
ejemplariza el objeto Color3f rojo que podría usarse varias veces. Podría ser útil crear
una clase que contenga varias cosntantes de colores. Abajo podemos ver un ejemplo de
una de estas clases que aparece en el Fragmento de Código 2-1.
1. import javax.vecmath.*;
2.
3. class ColorConstants{
4. public static final Color3f rojo = new Color3f(1.0f,0.0f,0.0f);
5. public static final Color3f verde = new Color3f(0.0f,1.0f,0.0f);
6. public static final Color3f azul = new Color3f(0.0f,0.0f,1.0f);
7. public static final Color3f amarillo = new Color3f(1.0f,1.0f,0.0f);
8. public static final Color3f cyan = new Color3f(0.0f,1.0f,1.0f);
9. public static final Color3f magenta = new Color3f(1.0f,0.0f,1.0f);
10. public static final Color3f blanco = new Color3f(1.0f,1.0f,1.0f);
11. public static final Color3f negro = new Color3f(0.0f,0.0f,0.0f);
12. }
Clases Vector
Los objetos Vector* frecuentemente representan superficies normales en vértices
aunque también pueden representar la dirección de una fuente de luz o de sonido. De
nuevo, los constructores de las clases Vector* son similares a los de Tuple*. Sin
embargo, los objetos Vector* añaden muchos métodos que no se encuentran en las
clases Tuple*.
Lista Parcial de Métodos de Vector3f
Paquete: javax.vecmath
Las clases Vector* descienden de las clases Tuple*. Cada ejemplar de las clases Vector*
representa un solo vector en un espacio de dos, tres o cuatro dimensiones. Además de los
métodos de Tuple*, las clases Vector* tienen métodos adicionales, algunos de los cuales
podemos ver aquí:
float length()
Devuelve la longitud de este vector.
float lengthSquared()
Devuelve el cuadrado de la longitud de este vector.
void cross(Vector3f v1, Vector3f v2)
Seleccciona este vector para que sea el producto cruzado de los vectores v1 y v2.
float dot(Vector3f v1)
Calcula y devuelve el punto del producto de este vector y el vector v1.
void normalize()
Normaliza este vector.
void normalize(Vector3f v1)
Selecciona el valor de este vector a la normalización del vector v1.
float angle(Vector3f v1)
Devuelve el ángulo en radianes entre este vector y el vectorv1, el valor devuelto está restringido
al ango [0,PI].
Clases TexCoord
Hay sólo dos clases TexCoord* que pueden usarse para representar las coordenadas de
textura de un vértice: TexCoord2f y TexCoord3f. TexCoord2f mantiene las
coordenadas de textura como una pareja de coordenadas (s, t); TexCoord3f como un
trio (s, t, r).
Los constructores para las clases TexCoord* también son similares a los de Tuple*.
como las clases Color*, las clases TexCoord* tampoco tienen métodos adicionales, por
eso sólo tratan con los métodos que heredan de sus superclases.
Clases Geometry
En los gráficos 3D por ordenador, todo, desde el más sencillo triángulo al más
complicado de los modelos Jumbo, está modelado y renderizado con datos basados en
vértices. Con Java 3D, cada objeto Shape3D debería llamar a su método
setGeometry() para referenciar uno y sólo uno objeto Geometry. Para ser más
preciso, Geometry es una superclase abstracta, por eso los objetos referenciados son
ejemplares de una de sus subclases.
Estas subclases se dividen en tres categorías principales:
● Geometría basada en vértices no indexados (cada vez que se renderiza un objeto
visual, sus vértices sólo podrían usarse una vez)
● Geometría basada en vértices indexados (cada vez que se renderiza un objeto
visual, sus vértices se podrían reutilizar)
● Otros objetos visuales (las clases Raster, Text3D, y CompressedGeometry)
Esta sección cubre las dos primeras categorías. El árbol de clases de Geometry y sus
subclases se muestran en la Figura 2-10:
Clase GeometryArray
Como se podría deducir de los nombres de las clases, las subclases de Geometry
podrían usarse para especificar puntos, líneas y polígonos rellenos (triángulos y
cuadriláteros). Estos primitivos basados en vértices son subclases de la clases abstracta
GeometryArray, que indica que cada una tiene un array que mantine los datos de los
vértices.
Por ejemplo, si se usa un objeto GeometryArray para especificar un triángulo, se
define un array de tres elementos: un elemento para cada vértice. Cada elemento de
este array mantiene la localización de las coordenbadas para su vértice (que puede estar
definido con un objeto Point* o similar). Además de la localización de las coordenadas,
se pueden definir otros tres arrays opcionales para almacenar el color, la superficie
normal, y las coordenadas de textura. Estos arrays que contienen las coordenadas, los
colores, las superficies normales y las coordenadas de texturas, son los "arrays de
datos".
Hay tres pasos en la vida de un objeto GeometryArray:
1. Construcción de un objeto vacío.
2. Rellenar el objeto con datos.
3. Asociar (referenciar) el objeto desde (uno o más) objetos Shape3D.
Veamos cómo trabaja este constructor, pero primero recordemos que GeometryArray
es una clase abstracta. Por lo tanto, realmente llamamos al constructor de una de sus
subclases, por ejemplo LineArray. (Un objeto LineArray describe un conjunto de
vértices, y cada dos vértices definen los puntos finales de una línea. El constuctor y
otros métodos de LineArray son muy similares a los de su superclase GeometryArray.
LineArray se explica con más detalle más adelante.)
El Fragmento de Código 2-4 muestra la clase Axis del programa AxisApp.java que usa
varios objetos LineArray para dibujar líneas que representan los ejes X, Y y Z. El objeto
axisXlines, crea un objeto con dos vértices (para dibujar una línea entre ellos), con
sólo los datos de las coordenadas de localización. El objeto axisYLines también tiene
dos vértices, pero permite color RGB, así como las coordenadas de posición de cada
vértice. Por lo tanto, la línea del eje Y podría dibujarse con colores interpolados desde un
vértice hasta el otro. Finalmente, el objeto axisZLines tiene diez vértices con
coordenadas y datos de color para cada vértice. Se podrían dibujar cinco líneas con
colores interpolados, una línea por cada pareja de vértices. Observa el uso de la
operación "OR" para los formatos de los vértices de los ejes Y y Z
1. // construye un objeto que representa el eje X
2. LineArray axisXLines= new LineArray (2, LineArray.COORDINATES);
3.
4. // construye un objeto que representa el eje Y
5. LineArray axisYLines = new LineArray(2, LineArray.COORDINATES
6. | LineArray.COLOR_3);
7.
8. // construye un objeto que representa el eje Z
9. LineArray axisZLines = new LineArray(10, LineArray.COORDINATES
10. | LineArray.COLOR_3);
Fragmento de código 2-4, Consctructores de GeometryArray.
El color por defecto para los vértices de un objeto GeometryArray es blanco, a menos
que especifiquemos COLOR_3 o COLOR_4 en el formato del vértice. Cuando se
especifica cualquiera de estos valores, el color por defecto del vértice es negro. Cuando
se renderizan líneas o polígonos rellenos con diferentes colores en cada vértice, los
colores se sombrean (interpolan) entre los vértices usando un sombreado Gouraud.
La Figura 2-11 muestra el escenario gráfico parcial creado por la clase Axis en
AxisApp.java.
Subclases de GeometryArray
Como se explicó en la sección anterior, la clase GeometryArray es una superclase
abstracta para subclases más útiles, como LineArray. La Figura 2-12 muestra el árbol
de subclases de GeometryArray. La principal distinción entre estas subclases es cómo
el renderizador Java 3D decide renderizar sus vértices.
Figura 2-12, Subclases no indexadas de GeometryArray.
Construyen objetos vacíos con el número de vértices especificados y el formato de los vértices.
Se pueden añadir banderas "OR" para describir los datos de cada vértice. Las banderas de
formato son las mismas que las definidas en la superclase GeometryArray.
PointArray(int vertexCount, int vertexFormat)
LineArray(int vertexCount, int vertexFormat)
TriangleArray(int vertexCount, int vertexFormat)
QuadArray(int vertexCount, int vertexFormat)
Para ver el uso de estos constructores y métodos, podemos volver a cualquiera de los
fragmentos de código 2-4, 2-5 o 2-6, que usan objetos LineArray .
Subclases de GeometryStripArray
Las cuatro subclases de GeometriArray descritas anteriormente no permite reutilizar
vértices. Algunas configuraciones geométricas invitan a reutilizar los vértices, por eso
podrían resultar clases especializadas para un mejor rendimiento del renderizado.
GeometryStripArray es una clase abstracta de la que se derivan tipos primitivos (para
crear líneas y superficies compuestas). GeometryStripArray es la superclase de
LineStripArray, TriangleStripArray, y TriangleFanArray. La Figura 2-14 muestra un
ejemplar de cada tipo y cómo se reutilizan los vértices. LineStripArray renderiza las
líneas conectadas. TriangleStripArray resulta en triángulos que comparten un lado,
reusando el vértice renderizado más recientemente. TriangleFanArray reutiliza el
primer vértice en su lámina.
Construyen objetos vacíos con el número de vértices especificados y el formato de los vértices.
Se pueden añadir banderas "OR" para describir los datos de cada vértice. Las banderas de
formato son las mismas que las definidas en la superclase GeometryArray. Se soportan
múltiples láminas. La suma de los contadores de vértices para todas las láminas (del array
stripVertexCounts) debe ser igual al contador de todos los vértices (vtxCount).
Observa que Java 3D no soporta primitivos rellenos con más de cuatro lados. El
programador es responsable de usar mosaicos para descomponer polígonos más
complejos en objetos Java 3D. La clases de utilidad Triangulator convierte polígonos
complejos en triángulos
La clase Triangulator
Paquete: com.sun.j3d.utils.geometry
Se usa para convertir polígonos no triángulares en triángulos para renderizarlos con Java 3D.
Los polígonos pueden ser cóncavos, no planos y pueden contener agujeros (puedes ver
GeometryInfo.setContourCounts()). Los polígonos no planos se proyectan al plano más cercano.
Sumario de Constructores
Triangulator()
Crea un objeto Triangulator.
Sumario de Métodos
void triangulate(GeometryInfo ginfo)
Esta rutina convierte el objeto GeometryInfo desde un tipo primitivo POLYGON_ARRAY a un
tipo primitivo TRIANGLE_ARRAY usándo técnicas de descomposición de polígonos.
Parámetros:
● ginfo - el objeto com.sun.j3d.utils.geometry.GeometryInfo a triangular.
Ejemplo de uso:
Triangulator tr = new Triangulator();
tr.triangulate(ginfo); // ginfo contains the geometry
shape.setGeometry(ginfo.getGeometryArray()); // shape is a Shape3D
Habrás observado las diferencias entre las líneas 36 a 39. El código se ha escrito para
hacer la cara frontal de cada triángulo en la geometría la parte exterior del yo-yo.
Subclases de IndexedGeometryArray
Las subclases de GeometryArray descritas anteriormente declaran los vértices de
forma borrosa. Solo las subclases de GeometryStripArray tienen incluso limitada la
reutilización e vértices. Muchos objetos geométricos invitan a la reutilización de vértices.
Por ejemplo, para definir un cubo, cada uno de sus ocho vértices se usa por tres
diferentes cuadrados. En el peor de los casos, un cubo requiere especificar 24 vértices,
aunque sólo ocho son realmente necesarios (16 de los 24 son redundantes).
Los objetos IndexedGeometryArray proporcionan un nivel de extra de indirección, por
eso se puede evitar los vértices redundantes. Todavía se deben proporcionar los arrays
de información basada en vértices, pero los vértices se pueden almacenar en cualquier
orden, y cualquier vértice se puede reutilizar durante el renderizado. A estos arrays que
contienen información sobre las coordenadas, el color, etc. se les llama "Arrays de
datos".
Sin embargo, los objetos IndexedGeometryArray también necesitan arrays
adicionales ("arrays de índices") que contienen índices a los "arrays de datos". Hay
hasta cuatro "arrays de índice": índices de coordenadas, índices de colores, índices de
superficies normales, e índices de coordenadas de textura, que cooresponden con los
"arrays de datos". El número de arrays de índices es siempre igual al número de arrays
de datos. El número de elementos en cada array de índice es el mismo y normalmente
mayor que el número de elementos en cada array de datos.
El "array de índices" podría tener múltiples referencias al mismo vértice en el "array de
datos". Los valores en estos "arrays de índices" determinan el orden en que se accede a
los datos del vértice durante el renderizado. La Figura 2-17 muestra como ejemplo la
relación entre los arrays de índice y de coordenadas para un cubo.
Merece la pena mencionar que hay que pagar un precio por la reutilización de los
vértices proporcionada por la geometría indexada - lo pagamos en rendimiento. El
indexado de geometrías en el momento de la renderización añade más trabajo al
proceso de renderizado. Si el rendimiento es un problema, debemos usar láminas
siempre que sea posible y evitar la geometría indexada. La geometría indexada es útil
cuando la velocidad no es crítica y tenemos alguna memoria que ganar usándola, o
cuando la indexación proporciona programación de conveniencia.
Construyen un objeto vacío con el número de vértices especificado, el formato de los vértices, y
el número de índices en este array.
IndexedGeometryArray(int vertexCount, int vertexFormat, int indexCount)
IndexedPointArray(int vertexCount, int vertexFormat, int indexCount)
IndexedLineArray(int vertexCount, int vertexFormat, int indexCount)
IndexedTriangleArray(int vertexCount, int vertexFormat, int indexCount)
IndexedQuadArray(int vertexCount, int vertexFormat, int indexCount)
Constructores de Subclases de IndexedGeometryStripArray
Construye un objeto vacío con el número de vertices especificado, el formado de los vértices, el
número de índices de este array, y un array contador de vértices por cada lámina.
Atributos y Apariencia
Los objetos Shape3D podrían referenciar tanto a objetos Geometry y Appearance.
Como se explicó anteriormente, el objeto Geometry especifica la información para cada
vértice de un objeto visual. La información por vértices de un objeto Geometry puede
especificar el color de los objetos visuales. Los datos de un objeto Geometry
normalmente son insuficientes para describir totalmente cómo es un objeto. En muchos
casos, también se necesita un objeto Appearance.
Un objeto Appearance no contiene información sobre cómo debe aparecer un objeto
Shape3D, pero si sabe donde encontrar esos datos. Un objeto Appearance (ya que es
una subclase de NodeComponent) podría referenciar varios objetos de otras subclases
de la clase abstracta NodeComponent. Por lo tanto la información que describe la
apariencia de un primitivo geométrico se dice que está almacenada dentro de un
"paquete de apariencia", como se ve en la Figura 2-19.
Figura 2-19, un Paquete de Apararencia
● LineAttributes
● PolygonAttributes
● ColoringAttributes
● TransparencyAttributes
● RenderingAttributes
● Material
● TextureAttributes
● Texture
● TexCoordGeneration
NodeComponent Appearance
Los dos siguientes bloques de referencia listan los constructores y otros métodos de la
clase Appearance.
Constructor de Appearance
El constructor por defecto de Appearance crea un objeto con todas las referencias a objetos
inicializadas a null. Los valores por defecto, para componentes con referencias nulas,
normalmente son predecibles: puntos y líneas, se dibujan con un tamaño y anchura de 1 pixel y
sin antialiasing, el color intrínseco es blanco, la transparencia desactivada, y el buffer de
profundidad está activado y es accesible tanto para lectura como escritura.
Appearance()
Cada método selecciona su objeto NodeComponent correspondiente para que sea parte del
paquete de apariencia actual.
void setPointAttributes(PointAttributes pointAttributes)
void setLineAttributes(LineAttributes lineAttributes)
void setPolygonAttributes(PolygonAttributes polygonAttributes)
void setColoringAttributes(ColoringAttributes coloringAttributes)
void setTransparencyAttributes(TransparencyAttributes
transparencyAttributes)
void setRenderingAttributes(RenderingAttributes renderingAttributes)
Clases Attribute
En esta sección se describen las seis primeras subclases de NodeComponent que
pueden ser referenciadas por Appearance (excluyendo las de iluminación y texturas).
PointAttributes
Los objetos PointAttributes manejan el modo en que se redibujan los puntos
primitivos. Por defecto, si un vértice se renderiza como un punto, rellena un único pixel.
Podemos usar setPointSize() para hacer un punto más grande. Sin embargo, por defecto,
un punto mayor se parece a un cuadrado, a menos que usemos setPointAntialiasingEnable().
Los puntos Antialiasing cambian los colores de los pixels para hacer que el punto
parezca "redondeado" (o al menos, un cuadrado menos visible).
Constructores de PointAttributes
PointAttributes()
Crea un objeto componente que describe puntos de un pixel sin antialiasing.
PointAttributes(float pointSize, boolean state)
Crea un objeto componente que describe el tamaño de pixel para los puntos y si permite o no el
antialiasing.
Métodos de PointAttributes
void setPointSize(float pointSize)
Describe el tamaño de pixels para los puntos.
void setPointAntialiasingEnable(boolean state)
Activa o desactiva el antialising de los puntos. Visualmente interesante sólo si el punto es mayor
de un pixel.
LineAttributes
Los objetos LineAttributes cambian el modo en que se renderizan las líneas primitivas
de tres formas. Por defecto, una línea se dibuja sólida rellena, de un pixel de ancho, y
sin antialiasing. Podemos cambiar estos atributos llamando a los métodos setLinePattern(),
setLineWidth(), y setLineAntialiasingEnable().
Constructores de LineAttributes
LineAttributes()
Crea un objeto componente que describe líneas rellenas de un pixel de ancho, sólidas rellenas,
sin antialiasing.
LineAttributes(float pointSize, int linePattern, boolean state)
Crea un objeto componente que describe el tamaño de pixel para líneas, el patrón de uso para
dibujo y si se activa o no el antialiasing.
Métodos de LineAttributes
void setLineWidth(float lineWidth)
Describe la anchura de pixels para líneas.
void setLinePattern(int linePattern)
donde linePattern es una de estas constantes: PATTERN_SOLID (por defecto),
PATTERN_DASH, PATTERN_DOT, o PATTERN_DASH_DOT. Describe cómo se deberían
rellenar los pixels de una línea.
void setLineAntialiasingEnable(boolean state)
Activa o desactiva el antialiasing.
PolygonAttributes
PolygonAttributes gobierna el modo en que se renderizan los polígonos primitivos de
tres formas: cómo es rasterizado, si está recortado, y si se aplica un desplazamiento de
profundidad especial. Por defecto, un polígono está relleno, pero setPolygonMode() puede
cambiar el modo en el que se dibuja el polígono como un marco (líneas) o sólo con los
puntos de los vértices. (En las últimas dos clases, LineAttributes o PointAttributes
también afectaban a como se visualiza el primitivo). Se podría usar el método
setCullFace() para reducir el número de polígonos que son renderizados. Si setCullFace() se
selecciona a CULL_FRONT o CULL_BACK, como media, no se renderizadan la mitad de
los polígonos.
Por defecto, los vértices se renderizan como marcos y los polígonos rellenos no siempre
se rasterizan con los mismos valores de profundidad, lo que podría hacer el
estrechamiento cuando el marco fuera totalmente visible. Con setPolygonOffset(), los
valores de profundidad de los polígonos rellenos se pueden mover hacia el plato de
imagen, para que el marco enmarque el objeto relleno de la forma apropiada.
setBackFaceNormalFlip() es utíl para renderizar un polígono relleno, donde ambos lados del
polígono van a ser sombreados.
Constructores de PolygonAttributes
PolygonAttributes()
Crea un objeto componente con polígonos rellenos por defecto, sin recortado y sin
desplazamiento.
PolygonAttributes(int polygonMode, int cullFace, float polygonOffset)
Crea un objeto componente para renderizar polígonos como sus puntos, líneas o polígonos
rellenos, con el recorte de caras y el desplazamiento especificados.
PolygonAttributes(int polygonMode, int cullFace,
float polygonOffset, boolean backFaceNormalFlip)
Crea un objeto componente similar al constructor anterior, pero tambien invierte cómo serán
determinados los polígonos trasero y frontal.
Métodos de PolygonAttributes
void setCullFace(int cullFace)
donde cullFace es uno de los siguientes: CULL_FRONT, CULL_BACK, o CULL_NONE. Oculta
(no renderiza) los polígonos de la cara frontal o trasera, o no recorta los polígonos en absoluto.
void setPolygonMode(int polygonMode)
deonde polygonMode es uno de estos: POLYGON_POINT, POLYGON_LINE, o
POLYGON_FILL. Renderizan los polígonos según sus puntos, sus líneas o polígonos rellenos
(por defecto).
void setPolygonOffset(float polygonOffset)
donde polygonOffset es el desplazamiento del espacio de pantalla añadido para ajustar el valor
de profundidad de los polígonos primitivos.
void setBackFaceNormalFlip(boolean backFaceNormalFlip)
donde backFaceNormalFlip determina si los vértices de los polígonos de las caras traseras
deberían ser negados antes de iluminarlos. Cuando está bandera se selecciona a True y el
recorte de la parte trasera está desactivado, un polígono se renderiza como si tuviera dos lados
con oposicción normal.
ColoringAttributes
ColoringAttributes controla cómo se colorea cualquier primitivo. setColor() selecciona
un color intrínseco, que en algunas situaciones específica el color del primitivo. También
setShadeModel() determina si el color es interpolado entre primitivos (normalmente
polígonos y líneas).
Constructores de ColoringAttributes
ColoringAttributes()
Crea un objeto componente usando blanco como el color intrínseco y SHADE_GOURAUD como
el modelo de sombreado por defecto.
ColoringAttributes(Color3f color, int shadeModel)
ColoringAttributes(float red, float green, float blue, int shadeModel)
donde shadeModel es uno de SHADE_GOURAUD, SHADE_FLAT, FASTEST, o NICEST.
Ambos constructores crean un objeto componente usando los parámetros especificados para el
color intrínseco y el modelo de sombreado (en la mayoría de los casos FASTEST es también
SHADE_FLAT, y NICEST es también SHADE_GOURAUD.)
Métodos de ColoringAttributes
void setColor(Color3f color)
void setColor(float red, float green, float blue)
Ambos métodos especifican el color intrínseco.
void setShadeModel(int shadeModel)
donde shadeModel es uno de estos: SHADE_GOURAUD, SHADE_FLAT, FASTEST, o
NICEST. Especifica el modelo de sombreado para renderizar primitivos.
Como los colores también se pueden definir para cada vértice de un objeto Geometry,
podría haber un confilcto con el cólor intrínseco definido por ColoringAttributes. En el
caso de dicho conflicto, los colores definidos en el objeto Geometry sobreescriben al
color intrínseco de ColoringAttributes. Si la iluminación está activada, también se
ignora el color intrínseco de ColoringAttributes.
TransparencyAttributes
TransparencyAttributes maneja la transparencia de cualquier primitivo.
setTransparency() define el valor de opacidad para el primitivo. setTransparencyMode() activa
la transparencia y selecciona el tipo de rasterización usado para producir la
transparencia.
Constructores de TransparencyAttributes
TransparencyAttributes()
Crea un objeto componente con el modo de transparencia de FASTEST.
TransparencyAttributes(int tMode, float tVal)
donde tMode es uno de BLENDED, SCREEN_DOOR, FASTEST, NICEST, o NONE, y tVal
especifica la opacidad del objeto (0.0 denota total opacidad y 1.0, total transparencia). Crea un
objeto componente con el método especificado para la renderización de transparencia y el valor
de opacidad de la apariencia del objeto.
Métodos de TransparencyAttributes
void setTransparency(float tVal)
donde tVal especifca una opacidad de objeto donde (0.0 denota total opacidad y 1.0,
total transparencia).
void setTransparencyMode(int tMode)
donde tMode (uno de BLENDED, SCREEN_DOOR, FASTEST, NICEST, o NONE) especifica
cómo se realiza la transparencia.
RenderingAttributes
RenderingAttributes controla dos operaciones diferentes de renderizado pixel-a-pixel:
el buffer de profundidad y el texteo alpha setDepthBufferEnable() y setDepthBufferWriteEnable()
determinan si se usa y cómo se usa el buffer de profundidad para ocultar una superficie
elininada. setAlphaTestValue() y setAlphaTestFunction() determinan si se usa y cómo la función
alpha.
Constructores de RenderingAttributes
RenderingAttributes()
Crea un objeto componente que define estados de renderizado por-pixel con el buffer de
profundidad activado y la función alpha desactivada.
RenderingAttributes(boolean depthBufferEnable,
boolean depthBufferWriteEnable,
float alphaTestValue, int alphaTestFunction)
donde depthBufferEnable activa y desactica las comparaciones del buffer de profundidad,
depthBufferWriteEnable activa y desactiva la escritura en el buffer de profundidad,
alphaTestValue se usa para comprobar contra una fuente de valores alpha entrantes, y
alphaTestFunction es uno de ALWAYS, NEVER, EQUAL, NOT_EQUAL, LESS,
LESS_OR_EQUAL, GREATER, o GREATER_OR_EQUAL, lo que denota el tipo de prueba alpha
activa. Crea un objeto componente que define los estados de renderizado para comparaciones
del buffer de produndidad y pruebas alpha.
Métodos de RenderingAttributes
void setDepthBufferEnable(boolean state)
activa y desactiva la prueba del buffer de profundidad.
void setDepthBufferWriteEnable(boolean state)
activa y desactiva la escritura en el buffer de seguridad.
void setAlphaTestValue(float value)
especifica el valor a usar en la prueba contra valores alpha entranres.
void setAlphaTestFunction(int function)
donde function es uno de: ALWAYS, NEVER, EQUAL, NOT_EQUAL, LESS,
LESS_OR_EQUAL, GREATER, o GREATER_OR_EQUAL, que denota el tipo de prueba alpha a
realizar. Si la función es ALWAYS (por defecto), entonces la prueba alpha está efectivamente
desactivada.
En la Figura 2-23, la desactivación del recorte de las caras traseras realmente funciona.
Ahora se renderizan todos los polígonos, no importa la dirección en la que se muestren.
Figura 2-23, Tornado sin recorte de las caras traseras
Como hay una gran variedad de formatos de ficheros para porpósitos de representación de
escenas 3D (por ejemplo, .obj, .vrml, etc.) y siempre habrá más formatos de ficheros, el
código real para cargar un fichero no forma parte de Java 3D o del paquete loaders; sólo se
incluye el interface para el mecanismo de carga. Con la definición del interface, el usuario
de Java 3D puede desarrollar clases cargadoras de ficheros con el mismo interface que las
otras clases cargadoras.
Paquete: com.sun.j3d.loaders
Implementa: Loader
1. import com.sun.j3d.loaders.objectfile.ObjectFile; „
2. import com.sun.j3d.loaders.ParsingErrorException; “
3. import com.sun.j3d.loaders.IncorrectFormatException; “
4. import com.sun.j3d.loaders.Scene; “
5. import java.applet.Applet;
6. import javax.media.j3d.*;
7. import javax.vecmath.*;
8. import java.io.*; “
9.
10. public class ObjLoad extends Applet {
11.
12. private String filename = null;
13.
14. public BranchGroup createSceneGraph() {
15. // Create the root of the branch graph
16. BranchGroup objRoot = new BranchGroup();
17.
18. ObjectFile f = new ObjectFile();
19. Scene s = null;
20. try {
21. s = f.load(filename);
22. }
23. catch (FileNotFoundException e) {
24. System.err.println(e);
25. System.exit(1);
26. }
27. catch (ParsingErrorException e) {
28. System.err.println(e);
29. System.exit(1);
30. }
31. catch (IncorrectFormatException e) {
32. System.err.println(e);
33. System.exit(1);
34. }
35.
36. objRoot.addChild(s.getSceneGroup());
37. }
Fragmento de Código 3-1, un extracto de jdk1.2/demo/java3d/ObjLoad/ObjLoad.java.
Este programa trata sobre añadir comportamientos (el efecto por defecto, o la interacción
con el ratón - cubierto en el Capítulo 4) y luces (Capítulo 6) para proporcionar una
renderización sombreada del modelo del objeto. Por supuesto, podemos hacer muchas otras
cosas con el modelo en un programa Java 3D como añadir animaciones, añadir otras
geométrias, cambiar el color del modelo, etc.
Dentro de la distribución del JDK 1.2 tenemos un ejemplo de loader en
jdk1.2/demos/java3d/lightwave/Viewer.java. Este cargador carga las luces y animaciones
espacificadas en un fichero .lws de Lightwave.
Paquete: com.sun.j3d.loaders
La clase LoaderBase proporciona una implementación para cada uno de los tres métodos
load() del interface Loader. LoaderBase también implementa dos constructores. Observa
que los tres métodos cargadores devuelven un objeto Scene.
Sumario de Constructores de la Clase LoaderBase
Paquete: com.sun.j3d.loaders
Implementa: Loader
Esta clase implementa el interface Loader. El autor de un cargador de ficheros debería extender
esta clase. El usuario de un cargador de ficheros debería usar estos métodos.
LoaderBase()
Costruye un Loader con los valores por defecto para todas las variables.
LoaderBase(int flags)
Construye un loader con las banderas especificadas.
Lista Parcial (métodos usados por usuarios) de la Clase SceneBase
Background[] getBackgroundNodes()
Behavior[] getBehaviorNodes()
java.lang.String getDescription()
Fog[] getFogNodes()
float[] getHorizontalFOVs()
Light[] getLightNodes()
java.util.Hashtable getNamedObjects()
BranchGroup getSceneGroup()
Sound[] getSoundNodes()
TransformGroup[] getViewGroups()
Escribir un Loader
Como se mencionó arriba, la característica más importante de los cargadores es que
podemos escribir el nuestro propio, lo que significa que todos los usuarios de Java 3D
también pueden hacerlo!
Para escribir un cargador, debemos extender la clase LoaderBase definida en el paquete
com.sun.j3d.loaders. El nuevo cargador usará la clase Scene del mismo paquete.
Paquete: com.sun.j3d.loaders
Implementa: Scene
Esta clase implementa el interface Scene y lo amplía para incorporar utilidades que podrían
usars los cargadores. Esta clase es responsable del almacenamiento y recuperación de los datos
de la escena.
SceneBase()
Crea un objeto SceneBase - no debería haber ninguna razón para usar este constructor
excepto en la implementación de una nueva clase de loader.
GeometryInfo
Si no tenemos acceso a los ficheros de modelos geométricos o a software de modelado
geométrico, tenemos que crear nuestra geometría a mano. Como se mencionó en capítulos
anteriores, esta codificación de geometría a mano requiere mucho tiempo y es una actividad
muy propensa a errores. Como sabemos, cuando especifamos geometrías a través de las
clases corazón, estamos limitados a triángulos y cuadrados. Usando las clase de utilidad
GeometryInfo se puede mejorar el tiempo empleado y el trabajo tedioso de la creacción
de geometrías. En lugar de especificar cada triángulo, podemos especificar polígonos
arbitrarios, que pueden ser cóncavos, polígonos no planos, e incluso con agujeros. El objeto
GeometryInfo, y otras clases de utilidad, convierten esta geometría en geometría
tirangular que Java 3D puede renderizar.
Por ejemplo, si queremos crear un coche en Java 3D, en vez de especificar triángulos,
podemos espcificar el perfil del coche como un polígono en un objeto GeometryInfo.
Luego, usando un objeto Triangulator, el polígono puede subdividirse en triángulos. La
imagen de la izquierda de la figura 3-2 muestra el perfil de un coche como un polígono. El
imagen de la derecha es el polígonos subdividido en triángulos.
Un sencillo polígono plano, similar al de la figura 3-2, especifica el perfil de un coche (cada
lado) en el ejemplo GeomInfoApp.
Paquete: com.sun.j3d.utils.geometry
Extiende: java.lang.Object
El objeto GeometryInfo es donde ponemos nuestra geometría si queremos usar las librerías de
utilidades de Java 3D. Una vez que tenemos los datos en el objeto GeometryInfo, podemos
enviarlo a cualquiera (o a todas) las clases de utilidades para realizar operaciones sobre ellas,
como generar superficies o convertirlo en franjas largas para una renderización más eficiente. La
geometría se carga tal como es en el objeto GeometryArray de Java 3D, pero hay unas pocas
opciones para obtener datos del objeto. La propia GeometryInfo contiene algunas sencillas
utilidades, como el cálculo de índices para datos no indexados y obtener datos no usados en
nuestra información de geometría indexada ("compactación").
GeometryInfo(int primitive)
Construye y un objeto GeometryInfo, donde "primitive" es uno de
● POLYGON_ARRAY posiblemente multi-contorno, posiblemente polígonos no planos
● QUAD_ARRAY cada conjunto de cuatro vértices forma un cuadrado independiente
● TRIANGLE_ARRAY cada conjunto de tres vértices forma un triángulo independiente
● TRIANGLE_FAN_ARRAY el array stripCounts indica cuántos vértices usar para cada
pala de triángulo
● TRIANGLE_STRIP_ARRAY el array stripCounts cuantos vértices se usarán por cada
franja de triángulo
La clase GeometryInfo tiene muchos métodos. Muchos de ellos son para seleccionar (u
obtener) datos de coordenadas, colores, índices, superficies o de coordenadas de textura.
La mayoría de las aplicaciones sólo usarán unos pocos de estos métodos. Sin embargo, es
conveniente poder especificar la geometría a cualquier nivel de detalle y deja el resto
calculado.
Lista Parcial de Métodos de la Clase GeometryInfo
void recomputeIndices()
Reconstruye los índices para garantizar la información de conexión.
void reverse()
Invierte el orden de todas las listas.
void setColorIndices(int[] colorIndices)
Selecciona el array de índices en un array Color.
void setColors(Color3f[] colors)
Selecciona el array de colores.
void setColors(Color4f[] colors)
Selecciona el array de colores, Hay otros métodos setColors.
void setContourCounts(int[] contourCounts)
Selecciona la lista del contador de contornos.
void setCoordinateIndices(int[] coordinateIndices)
Selecciona el array de índices en el array de coordenadas.
void setCoordinates(Point3f[] coordinates)
Selecciona el array de coordenadas.
void setCoordinates(Point3d[] coordinates)
Selecciona el array de coordenadas. Hay otros métodos setCoordinates.
void setNormalIndices(int[] normalIndices)
Selecciona el array de índices en el array de superficies normales.
void setNormals(Vector3f[] normals)
Selecciona el array de superficies normales.
void setNormals(float[] normals)
Selecciona el array de superficies normales.
void setStripCounts(int[] stripCounts)
Selecciona el array del contador de franjas.
void setTextureCoordinateIndices(int[] texCoordIndices)
Selecciona el array de índices en el array de coordenadas de textura.
void setTextureCoordinates(Point2f[] texCoords)
Selecciona el array de coordenadas de textura. Hay otros métodos setTextureCoordinates.
Todas las clases de 'ayuda' de GeometryInfo se usan de forma similar. Los siguientes
bloques de referencia muestran los constructoes y métodos para Triangulator, Stripifier,
y NormalGenerator, en este orden, que es el orden en que se usarían para un
POLYGON_ARRAY.
La utilidad Triangulator sólo se usa con geometría POLYGON_ARRAY. Otros objetos
GeometryInfo con otras geometrías primitivas sólo usarían Stripifier y
NormalGenerator.
El constructor por defecto para la clase Triangulator simplemente crea un objeto
Triangulation.
Sumario de Constructores de la Clase Triangulator
Paquete: com.sun.j3d.utils.geometry
Extiende: java.lang.Object
Triangulator es una utilidad para convertir polígonos arbitraríos en triángulos para que puedan
ser renderizados por Java 3D. Los polígonos pueden ser cóncavos, no planos, y pueden contener
agujeros.
Triangulator()
Creata un uevo ejemplar de Triangulator.
Paquete: com.sun.j3d.utils.geometry
Extiende: java.lang.Object
La utilidad Stripifier cambia el tipo primitivo del objeto GeometryInfo a una franja de
triángulos. Las franjas se hacen analizando los triángulos en los datos originales y conectándolos
juntos.
Para obtener un mejor resultado se debe realizar antes un NormalGeneration sobre el objeto
GeometryInfo.
Stripifier()
Crea el objeto Stripifier.
Paquete: com.sun.j3d.utils.geometry
Extiende: java.lang.Object
Por supuesto, algunas veces, nuestro modelo tiene un pliegue. Si dos superficies triangulares
difieren por más de creaseAngle, entonces el vértice obtendrá dos superficies separadas,
creando un pliegue discontinúo en el modelo. Esto es perfecto para el borde de un tabla o la
esquina de un cubo, por ejemplo.
NormalGenerator()
Construye un NormalGenerator con el ángulo de pliegue por defecto (0.76794 radianes, o
44°).
NormalGenerator(double radians)
Construye un NormalGenerator con el ángulo de pliegue especificado en radianes.
Texto 2D
Hay dos formas de añadir texto a una escena Java 3D. Una forma es usar la clase Text2D y
otra es usar la clase Text3D. Obviamente, la diferencia es que los objetos Text2D tienen
dos dimensiones y los objetos Text3D tienen tres dimensiones. Otra diferencia significante
es la forma en que se crean estos objetos.
Los objetos Text2D son polígonos rectangulares con el texto aplicado como una textura.
Los objetos Text3D son objetos 3D geométricos creados como un extrusión del texto.
Como una subclase de Shape3D, los ejemplares de Text2D pueden ser hijos de objetos
group. Para situar un objeto Text2D en una escena Java 3D, simplemente creamos el
objeto Text2D y lo añadimos al escenario gráfico. Aquí tenemos una sencilla receta.
1. Crer un objeto Text2D
2. Añadirlo al escenario gráfico
Ejemplo de Text2D
El Fragmento de Código 3-3 muestra un ejemplo de adición de texto 2D a una escena. El
objeto Text2D se crea en las líneas 21 a 23. En este constructor, se especifican la cadena
de texto, el color, el tipo, el tamaño y el estilo de la fuente. El objeto Text2D se añade a la
escena en la línea 24. Observa la sentencia import para Font (línea 5) usada para las
constantes de estilos de fuente.
1. import java.applet.Applet;
2. import java.awt.BorderLayout;
3. import java.awt.Frame;
4. import java.awt.event.*;
5. import java.awt.Font;
6. import com.sun.j3d.utils.applet.MainFrame;
7. import com.sun.j3d.utils.geometry.Text2D;
8. import com.sun.j3d.utils.universe.*;
9. import javax.media.j3d.*;
10. import javax.vecmath.*;
11.
12. // Text2DApp renders a single Text2D object.
13.
14. public class Text2DApp extends Applet {
15.
16. public BranchGroup createSceneGraph() {
17. // Create the root of the branch graph
18. BranchGroup objRoot = new BranchGroup();
19.
20. // Create a Text2D leaf node, add it to the scene graph.
21. Text2D text2D = new Text2D("2D text is a textured polygon",
22. new Color3f(0.9f, 1.0f, 1.0f),
23. "Helvetica", 18, Font.ITALIC));
24. objRoot.addChild(text2D);
Fragmento de Código 3-3, un objeto Text2D
La textura creada por un objeto Text2D también puede aplicarse a otros objetos visuales.
Ya que la aplicación de texturas a objetos visuales es el objetivo del Capítulo 7 lo dejaremos
aquí.
Paquete: com.sun.j3d.utils.geometry
Esta clase crea un rectángulo de textura mapeado que muestra la cadena de texto enviada por
el usuario, dándole la apariencia suministrada en los parámetros de usuario. El tamaño del
rectángulo (y su mapa de textura) está determinado por los parámetros de la fuente pasados al
constructor. El objeto Shape3D resultante es un rectángulo transparente (excepto el texto)
localizado en (0, 0, 0).
Text2D(java.lang.String text, Color3f color, java.lang.String fontName,
int fontSize, int fontStyle)
Constructor.
Con el constructor Text2D, hay un método. Este método selecciona el factor de escala para
crear objetos Text2D mayores o menores que el tamaño de punto especificado. Este
método no es útil en la versión 1.1.x del API, ya que sólo se utiliza cuando se especifica el
texto. En la versión 1.2 se ha introducido un método setText() haciendo útil el
setRectangleScaleFactor().
Sumario de Métodos de la Clase Text2D
void setRectangleScaleFactor(float newScaleFactor)
Selecciona el factor de escala usado para convertir la anchura/altura de la imagen.
Texto 3D
Otra forma de añadir texto a un mundo virtual Java 3D es crear un objeto Text3D para
texto. Mientras que Text2D crea el texto con un textura, Text3D crea texto usando
geometría. La geometría textual de un objeto Text3D es una extrusión de la fuente.
Crear un objeto Text3D es un poco más complicado que crear un objeto Text2D. El primer
paso es crear un objeto Font3D con el tipo de fuente, el tamaño y el estilo seleccionado.
Luego se crea un objeto Text3D para una cadena particular usando el objeto Font3D.
Como la clase Text3D es una subclase de Geometry, el objeto Text3D es un
NodeComponent que es referenciado por uno o más objetos Shape3D:
1. Crear un objeto Font3D desde una fuente AWT
2. Crear un objeto Text3D para un string usando el objeto Font3D, opcionalmente
especificando un punto de referencia
3. Referenciar el objeto desde un objeto Shape3D añadido al escenario gráfico
Ejemplo de Text3D
El Fragmento de Código 3-5 muestra la construcción básica de un objeto Text3D. El objeto
Font3D se crea en las líneas 19 y 20. El tipo usado es "Helvetica". Igual que en Text2D,
cualquier tipo disponible en el AWT puede ser usado para Font3D y por lo tanto en el
objeto Text3D. Este constructor de Font3D (líneas 19 y 20) también selecciona el tamaño
de la fuente a 10 puntos y usa la extrusión por defecto.
La sentencia de las líneas 21 y 22 crea un objeto Text3D usando el objeto Font3D
recientemente creado para la cadena "3DText" mientras especifica un punto de referencia
para el objeto. Las últimas dos sentencias crean un objeto Shape3D para el objeto Text3D
y lo añaden al escenario gráfico. Observa que la sentencia import de la línea 5 es necesaria
porque se usa un objeto Font para la creacción de Font3D.
1. import java.applet.Applet;
2. import java.awt.BorderLayout;
3. import java.awt.Frame;
4. import java.awt.event.*;
5. import java.awt.Font;
6. import com.sun.j3d.utils.applet.MainFrame;
7. import com.sun.j3d.utils.universe.*;
8. import javax.media.j3d.*;
9. import javax.vecmath.*;
10.
11. // Text3DApp renders a single Text3D object.
12.
13. public class Text3DApp extends Applet {
14.
15. public BranchGroup createSceneGraph() {
16. // Create the root of the branch graph
17. BranchGroup objRoot = new BranchGroup();
18.
19. Font3D font3d = new Font3D(new Font("Helvetica", Font.PLAIN, 10),
20. new FontExtrusion());
21. Text3D textGeom = new Text3D(font3d, new String("3DText"),
22. new Point3f(-2.0f, 0.0f, 0.0f));
23. Shape3D textShape = new Shape3D(textGeom);
24. objRoot.addChild(textShape);
Fragmento de Código 3-5, Crear un objeto Visual Text3D
La Figura 3-9 muestra un objeto Text3D que ilustra la extrusión del tipo. En la figura, la
extrusión se muestra en gris mientras que el tipo se muestra en negro. Para recrear esta
figura en Java 3D, son necesarios un objeto Material y otro DirectionalLight. No podemos
seleccionar el color de los vértices individuales en el objeto Text3D porque no tenemos
acceso a la geometría del objeto Text3D.
Los objetos Text3D tienen superficies. La adicción de un paquete de apariencia que incluye
un objeto Material a un objeto Shape3D referenciando la geometría Text3D permitirá la
iluminación del objeto Text3D.
La clase Text3D define varios constructores. Cada uno permite especificar ninguno, uno o
todos los atributos de un objeto Text3D.
Sumario de Constructores de la Clase Text3D
Un objeto Text3D es una cadena de texto que se ha convertido en una geometría 3D. El objeto
Font3D determina la apariencia del objeto NodeComponent. Cada objeto Text3D tiene una
posición - un punto de referencia que sitúa el objeto Text3D. El texto 3D puede situarse
alrededor de su posición usando diferentes alineamientos y caminos.
Text3D()
Crea un objeto Text3D vacío. Los valores por defecto usados para este y otros constructores
son:
● font 3D null
● string null
● position (0,0,0)
● alignment ALIGN_FIRST
● path PATH_RIGHT
● character spacing 0.0
Text3D(Font3D font3D)
Crea un objeto Text3D con el objeto Font3D dado.
Text3D(Font3D font3D, String string)
Crea un objeto Text3D dando un objeto Font3D y una cadena de texto.
Text3D(Font3D font3D, String string, Point3f position)
Crea un objeto Text3D dando un objeto Font3D y una cadena de texto. El punto de posición
define un punto de referencia para el objeto Text3D. Su posición se define en relación a la
esquina inferior iquierda frontal de la geometría.
Text3D(Font3D font3D, String string, Point3f position,
int alignment, int path)
Crea un objeto Text3D dando un objeto Font3D y una cadena de texto.
● ALIGN_CENTER alineamiento: el centro de la cadena se sitúa en el punto de posición.
● ALIGN_FIRST alineamiento: el primer caracter de la cadena se sitúa en el punto de
posición.
● ALIGN_LAST alineamiento: el último caracter de la cadena se sitúa en el punto de
posición.
● PATH_DOWN camino: las letras sucesivas se situarán debajo de la letra actual.
● PATH_LEFT camino: las letras sucesivas se situarán a la izquierda de la letra actual.
● PATH_RIGHT camino: las letras sucesivas se situarán a la derecha de la letra actual.
● PATH_UP camino: las letras sucesivas se situarán sobre la letra actual.
La clase Text3D también define varios métodos. Cada uno de ellos nos permite modificar
(seleccionar) los atributos del objeto Text3D. Esta clase también define los
correspondientes métodos get*.
Sumario de Métodos de la Clase Text3D
void setAlignment(int alignment)
Selecciona la política de alineamiento para este objeto Text3D NodeComponent.
void setCharacterSpacing(float characterSpacing)
Selecciona el espaciado entre caracteres cuando se construye la cadena Text3D.
void setFont3D(Font3D font3d)
Selecciona el objeto Font3D usado para este objeto Text3D NodeComponent.
void setPath(int path)
Selecciona la dirección del camino del nodo.
void setPosition(Point3f position)
Selecciona el punto de referencia del nodo.
void setString(java.lang.String string)
Copia la cadena de caracteres desde el parámetro suministrado dentro del nodo Text3D.
Sumario de Capacidades de la Clase Text3D
● ALLOW_ALIGNMENT_READ | WRITE permite leer (escribir) el valor de alineamiento
del texto.
● ALLOW_BOUNDING_BOX_READ permite leer el valor de la caja que rodea la cadena de
texto.
● ALLOW_CHARACTER_SPACING_READ | WRITE permite leer (escribir) el valor del
espaciado entre caracteres.
● ALLOW_FONT3D_READ | WRITE permite leer (escribir) la información del componente
Font3D.
● ALLOW_PATH_READ | WRITE permite leer (escribir) el valor del camino del texto.
● ALLOW_POSITION_READ | WRITE permite leer (escribir) el valor de la posición del
texto.
● ALLOW_STRING_READ | WRITE permite leer (escribir) el objeto String.
Cada objeto Text3D se crea desde un objeto Font3D. Un sólo objeto Font3D puede usarse
para crear un número ilimitado de objetos Text3D. Un objeto Font3D contiene la extrusión
geométrica de cada caracter en el tipo de letra. Un objeto Text3D copia las geometrías
para formar la cadena especificada. Los objetos Font3D pueden ser recolectados por el
recolector de basura sin afectar a los objetos Text3D creados a partir de él.
Sumario de Constructores de la Clase Font3D
Extiende: java.lang.Object
Una fuente 3D consiste en una fuente Java 2D y un camino de extrusión. Este camino de
extrusión describe cómo varía el flanco de una letra en el eje Z. El objeto Font3D se usa para
almacenar letras 2D extrusionadas. Estas letras 3D pueden usarse para construir objetos
Text3D NodeComponent. Las fuentes 3D personalizadas así como el almacenamiento de
fuentes 3D en disco se cubriran en una futura versión de Java 3D.
También puedes ver : java.awt.Font, FontExtrusion, Text3D
Font3D(java.awt.Font font, FontExtrusion extrudePath)
Crea un objeto Font3D desde el objeto Font especificado.
Sumario de Métodos de Font3D
void getBoundingBox(int glyphCode, BoundingBox bounds)
Devuelve la caja 3D que rodea el código de letra específicado.
java.awt.Font getFont()
Devuelve la fuente Java 2D usada para crear este objeto Font3D.
void getFontExtrusion(FontExtrusion extrudePath)
Copia el objeto FontExtrusion usado para crear este objeto Font3D dentro del parámetro
especificado.
Paquete: java.awt
Una clase AWT que crea una representación interna de las fuentas. Font desciende de
java.lang.Object.
public Font(String name, int style, int size)
Crea un nuevo Font desde el nombre, estilo y tamaño de punto especificados.
Parámetros:
● name - el nombre del tipo de letra. Este puede ser un nombre lógico o un nombre de tipo
de fuente. Un nombre lógico puede ser uno de: Dialog, DialogInput, Monospaced,
Serif, SansSerif, o Symbol.
● style - el estilo para la fuente. El argumento estilo es una máscara de bits de enteros que
puede ser PLAIN, o una unión de BOLD y/o ITALIC (por ejemplo, Font.ITALIC o
Font.BOLD|Font.ITALIC). Cualquier otro bit del parámetro de estilo es ingorado. Si el
argumento de estilo no conforma ninguna de las máscaras esperadas, el estilo se
selecciona a PLAIN.
● size - el tamaño de punto de la fuente.
Sumario de Constructores de la Clase FontExtrusion
Extiende: java.lang.Object
Ejemplos de fondos
Como se explicó en la sección anterior, un fondo puede tener un color o una imagen. La
Geometría puede aparecer en el fondo con el color o la imagen. Esta sección proporciona un
ejemplo de un fondo blanco sólido. Un segundo ejemplo muestra la adicción de geométria al
fondo.
Las líneas de código del Fragmento de Código 3-6 corresponden con los pasos de la receta
anterior. Junto a la personalización del color, el único posible ajuste es para definir unos
límites de aplicación más apropiados para el fondo (o usar un BoundingLeaf).
De nuevo, las líneas de código en el Fragmento de Código 3-7 corresponden con lo pasos de
la receta de creacción de un fondo. En este fragmento, se llama al método createBackGraph()
para crear la geometría del fondo. Este método devuelve un objeto BranchGroup. Para un
ejemplo más completo puedes ver el fichero BackgroundApp.java.
BackgroundApp.java
La clase Background
La Figura 3-13 muestra el árbol de clase de la clase Background. Como una extensión de
la clase Leaf, un ejemplar de la clase Background puede ser un hijo de un objeto Group.
Background tiene varios constructores. Los constructores con parámetros nos permiten
especificar un color o una imagen para el fondo. La geometría del fondo sólo se puede
aplicar a través del método apropiado.
Sumario de Constructores de la Clase Background
El nodo hoja Background define un color sólido o una imagen para el fondo que se usa para
rellenar la ventana al principio de cada nuevo marco. Opcionalmente permite referenciar
geometrías de fondo. La geometría de fondo debe representarse dentro de una esfera y es
dibujada hacia el infinito. También especifica una región de aplicación en la que este fondo está
activo.
Background()
Construye un nodo Background con un color por defecto (negro).
Background(Color3f color)
Construye un nodo Background con el color especificado.
Background(float r, float g, float b)
Construye un nodo Background con el color especificado.
Background(ImageComponent2D image)
Construye un nodo Background con la imagen especificada.
BoundingLeaf
Los Bounds (límites) se usan con luces, comportamientos, fondos y una gran variedad de
otras aplicaciones en Java 3D. Los Bounds permiten al programador variar la acción, la
apariencia, y/o el sonido sobre el campo virtual. La especificación de Bounds también
permite al sistema de renderizado de Java 3D mejorar la ejecución del recortado y por lo
tanto mejorar el rendimiento.
La especificación típica de límites utiliza un objeto Bounds para limitar una región. En el
escenario gráfico resultante, los objetos Bounds se mueven con los objetos que lo
referencian. Esto esta bién para muchas aplicaciones; sin embargo, podría haber situaciones
en las que fuera deseable tener la región límite que se moviera independientemente de los
objetos que usan los límites.
Por ejemplo, si un mundo incluye una fuente de luz estacionaria que ilumina unos objetos
en movimiento, los límites de la luz deberían incluir el objeto en movimiento. Una forma de
manejar esto podría ser crear los límites lo suficientemente grandes como para incluir todos
los lugares donde se mueve el objeto. Esta no es la mejor respuesta en muchos casos. Una
mejor solución es usar un BoundingLeaf. Situado en el escenario gráfico con el objeto
visual, el BoundingLeaf se mueve con el objeto visual independientemente de la fuente de
luz. La Figura 3-14 muestra un escenario gráfico con un una luz que usa un nodo
BoundingLeaf.
Figura 3-14, un BoundlingLeaf se mueve con un objeto visual independientemente de la fuente de luz
La Clase BoundingLeaf
La clase BoundingLeaf extiende la clase Leaf. La Figura 3-15 representa el árbol de clases
de BoundingLeaf.
El constructor sin parámetros de BoundingLeaf crea límites para una esfera. El otro
constructor permite la especificación de límites para el objeto BoundingLeaf.
Sumario de Constructores de la Clase BoundingLeaf
El nodo BoundingLeaf define una región de límites que puede ser referenciada por otros nodos
para definir un región de influencia, o una región programada.
BoundingLeaf()
Construye un nodo BoundingLeaf con un objeto esfera.
BoundingLeaf(Bounds region)
Construye un nodo BoundingLeaf con la región de límites especificada.
Sumario de Métodos de la Clase BoundingLeaf
Bounds getRegion()
Recupera la región de límites de este BoundingLeaf
void setRegion(Bounds region)
Selecciona la región de límites de este nodo BoundungLeaf
Datos de Usuario
Cualquier SceneGraphObject puede referenciar cualquier otro objeto como datos de
usuario. Primero, deberíamos habernos dado cuenta de que casi cualquier clase del corazón
del API Java 3D es un descendiente de SceneGraphObject. La lista de descendientes de
SceneGraphObject incluye Appearance, Background, Behavior, BranchGroup,
Geometry, Lights, Shape3D, y TransformGroup.
Las aplicación para el campo UserData, sólo está limitado por nuestra imaginación. Por
ejemplo, una aplicación podría tener varios objetos recolectables. Cada uno de estos
objetos podría tener algún texto informativo almacenado en el objeto de datos de usuario.
Cuando el usuario recoge un objeto, se puede mostrar la información de los datos de
usuario.
Otra aplicación podría almacenar algún valor calculado para un objeto de escenario gráfico
como su posición en las coordenadas del mundo virtual. Y otra aplicación podría almacenar
alguna información especifica de comportamiento que podría controlar el comportamiento
aplicado a varios objetos.
Lista Parcial de Métodos de Datos de Usuario de SceneGraphObject
Interacción en Java 3D
Aplicaciones de Behavior
Como un comportamiento (Behavior) es un enlace entre un estímulo y una acción, si
consideramos todas las combinaciones posibles entre estímulos y acciones podremos obtener
todas las aplicaciones de los objetos Behavior. La siguiente tabla muestra algunas de las
posibilidades de Behavior, listando los posibles estímulos hacia abajo, y los posibles cambios
hacia la derecha.
La tabla no lista todas las combinaciones posibles, sólo las más simples (un estímulo resulta
en un cambio). Algunas combinaciones de estímulos y cambios sólo tienen sentido en un
entorno específico; estas se listan como "específicas de la aplicación".
Objeto del Cambio
Geometry
Estímulo View
TransformGroup (los objetos Scene Graph
(razón para (los objetos visuales (cambiar la
visuales (añadir, eliminar
el cambio) cambian la orientación o cambian la localización o
o intercambiar
dirección de la
la localización) forma o el objetos)
vista)
color)
específico de la específico de la
usuario interacción navegación
aplicación aplicación
Los objetos
Los objetos
Los objetos visuales visuales
visuales La vista cambia
colisiones cambian su orientación o cambian su
desaparecen con con la colisión
posición apariencia con
la colisión
la colisión
tiempo animación animación animación animación
Posición de la nivel de específico de la específico de la
cartelera
Vista detalles (LOD) aplicación aplicación
La cosas naturales, como los árboles, utilizan una tremenda cantidad de geometría para
representar de forma segura todas la estructura de ramas, hojas y tronco. Una alternativa es
usar un polígono texturado en lugar de la geometría. Esta técnica algunas veces es referida
como la aproximación cartelera. Esto es cierto especialmente cuando se usa un
comportamiento para orientar automáticamente el polígono texturado hacia el espectador
para que sólo se vea el frente de la superficie texturada. Este comportamiento de orientación
se llama comportamiento cartelera.
Esta aproximación es efectiva cuando el objeto a representar por la textura está lejano para
que las partes individuales del objeto visual no sean fácilmente distinguibles. Para el ejemplo
del árbol, si el espectador está tan alejado que las ramas son dificiles de distinguir, no
merece la pena gastar recursos de memoria y de cálculo para representar todas las hojas del
árbol. Esta técnica está recomendada para cualquier aplicación que requiera visualizar
objetos complejos en la distancia. Sin embargo, si el espectador puede aproximarse a la
cartelera, a cierta distancia el grado de profundidad del polígono textura podría ser detectado
por el espectador.
El comportamiento de nivel de detalle (LOD) tiene una aplicación relacionada. Con LOD, los
objetos visualmente complejos son representados por múltiples objetos visuales variando los
niveles de detales (de ahí su nombre). La representación del objeto visual con menor nivel de
detalle se usa cuando el espectador está lejos. La representación con más nivel de detalle se
usa cuando el espectador está muy cerca. El comportamiento LOD cambia automáticamente
entre las representación del objeto basándose en la distancia al espectador.
Los comportamientos de cartelera y de nivel de detalle corresponden a clases extendidas
desde Behavior que implementan estas aplicaciones comunes. Son posibles otros
comportamientos especilizados y varios de ellos se pueden ver en la Figura 4-1. Por ejemplo,
hay varias clases MouseBehavior que manipulan una transformación en respuesta a
movimientos del ratón. Normalmente la transformación de la vista se cambia por el
comportamiento del ratón para cambiar la vista en respuesta a una acción del ratón.
Observa también como los comportamientos pueden encadenarse. Por ejemplo, los
movimientos del ratón o las pulsaciones de teclas pueden usarse para cambiar la vista. En
respuesta al movimiento de la vista, podrían tener lugar otros comportamientos como la
cartelera, o el nivel de detalles. Afortunadamente, cada comportamiento se especifica de
forma separada.
Como la distinción entre animación e interacción usada en este tutorial está bastante bien,
aquí hay un ejemplo para clarificar esta distinción. Si un usuario navega en un programa
donde se proporciona un comportamiento, la vista se moverá en respuesta a eventos del
teclado y/o ratón. El movimiento de la plataforma de la vista es una interacción porque es el
resultado directo de una acción del usuario. Sin embargo, otras cosas podrían cambiar como
resultado del movimiento de la plataforma de la vista, (por ejemplo, comportamientos de
cartelera o LOD). Los cambios causados como resultado del movimiento de la plataforma de
vista son indirectamente causados por el usuario y por lo tanto son animaciones.
Introducción a la clases Behavior
La Figura 4-1 muesta especializaciones de la clase Behavior creadas en el API de Java 3D.
También son posibles las clases especializadas de Behavior definidas por el usuarios y están
sólo limitadas por la imaginación del programador. Este módulo del tutorial cubre cada una
de las clases de la Figura 4-1. Este capítulo cubre las clases sombreadas, el siguiente capítulo
cubre el resto.
Behavior Básico
Como se explicó en la sección anterior, las clases Behavior se usan en muchas aplicaciones
Java 3D y de muchas formas. Es importante entender las consideraciones de funcionamiento
y programación de estas clases. Esta sección explica la clase Behavior, ofrece una receta
para programar clases de comportamientos personalizadas, y muestra una aplicación de
ejemplo que usa una clase Behavior.
La receta anterior muestra los pasos básicos para crear una clase de comportamiento
personalizada. Los comportamientos complejos podrían requerir más programación que la
descrita en la receta. El uso de un objeto Behavior es otro problema y se discute en una
sección posterior. Pero antes, usaremos esta receta para crear el siguiente ejemplo de clase
Behavior.
1. import java.awt.event.*;
2. import java.util.Enumeration;
3.
4. // SimpleBehaviorApp renders a single, rotated cube.
5.
6. public class SimpleBehaviorApp extends Applet {
7.
8. public class SimpleBehavior extends Behavior{
9.
10. private TransformGroup targetTG;
11. private Transform3D rotation = new Transform3D();
12. private double angle = 0.0;
13.
14. // create SimpleBehavior - set TG object of change
15. SimpleBehavior(TransformGroup targetTG){
16. this.targetTG = targetTG;
17. }
18.
19. // initialize the Behavior
20. // set initial wakeup condition
21. // called when behavior becomes live
22. public void initialize(){
23. // set initial wakeup condition
24. this.wakeupOn(new WakeupOnAWTEvent(KeyEvent.KEY_PRESSED));
25. }
26.
27. // called by Java 3D when appropriate stimulus occurs
28. public void processStimulus(Enumeration criteria){
29. // do what is necessary in response to stimulus
30. angle += 0.1;
31. rotation.rotY(angle);
32. targetTG.setTransform(rotation);
33. this.wakeupOn(new WakeupOnAWTEvent(KeyEvent.KEY_PRESSED));
34. }
35.
36. } // end of class SimpleBehavior
Fragmento de Código 4-1, Clase SimpleBehavior de SimpleBehaviorApp.java
Esta clase sólo demuestra la programación básica necesaria para este comportamiento
sencillo. Se pude mejorar, por ejemplo, se podrían seleccionar el ángulo y/o el eje de
rotación por métodos de la clase. La clase podría además personalizarse con un método para
seleccionar una tecla específica, o conjunto de teclas, a las que responder.
Otra mejora definitiva de la clase podría prevenir la sobrecarga de la variable del ángulo, en
la clase actual, el valor para el ángulo podría crecer sin límites incluso aunque los valores de
0.0 a 2P sean todo lo necesario. Aunque es improbable, es posible que esta variable genere
una sobrecarga y cause una excepción en tiempo de ejecución.
En los tres pasos de la receta para crear una clase behavior personalizada, los dos errores
más comunes son:
● olvidarse de seleccionar y resetear el disparo del comportamiento, y
Figura 4-4, Diagrama del Escenario Gráfico de la Rama de Contenido Gráfico de SimpleBehaviorApp.java.
El diagrama anterior muestra claramente la relación entre el objeto behavior y el objeto del
cambio, el objeto TransformGroup. El ejemplo rota un ColorCube, pero la clase Behavior
no está limitada a esto. Puede rotar cualquier objeto visual, o porción de una escena gráfica
que sea hija de un objeto TransformGroup.
Este sencillo ejemplo no está pensado para demostrar todas las posibilidades de los
comportamientos; es sólo un punto de arranque en la exploración de los comportamientos.
En secciones posteriores veremos el API de la clase Behavior.
En la receta de tres pasos para usar clases Behavior, los dos errores más comunes son:
● no especificar (correctamente) los límites, y
Los comportamientos pueden situarse en cualquier lugar del escenario gráfico. Los problemas
para esta localización son: 1) el efecto de los límites, y 2) el mantenimiento del código.
El objeto bounds referenciado por un objeto behavior está sujeto al sistema local de
coordenadas creado en SimpleBehaviorApp, el objeto SimpleBehavior y ColorCube no
están sujetos al mismo sistema local de coordenadas. En la aplicación de ejemplo esto no
crea un problema. El objeto TransformGroup del ejemplo sólo rota el ColorCube para que
los límites del objeto myRotationBehavior siempre encierren el objeto ColorCube
permitiendo la interacción con el ColorCube cuando es visible.
Sin embargo, si el objeto TransformGroup se usara para trasladar el objeto ColorCube,
sería posible moverlo fuera de la vista. Como el objeto bounds permanece con el objeto
behavior en la escena, el usuario podría continuar moviendo el objeto. Mientras que el
volumen de activación de una vista interesecciona los límites del comportamiento, éste está
activo.
Siendo posible interactuar con un objeto visual que no está en la vista no está mal (si esto es
lo que queremos). El problema viene si la vista a cambiar dicho volumen de activación no
intersecciona con límites del comportamiento, incluso para incluir el objeto visual, el
comportamiento está inactivo. Por eso el objeto visual con el que queremos interactuar
podría estar a nuestra vista pero inactivo. La mayoría de los usuarios consideran esto un
problema (incluso si es intencional).
Hay dos soluciones a este problema. Una es cambiar el escenario gráfico para mantener los
límites del comportamiento con el objeto visual. Esto se consigue fácilmente como se
demuestra en la Figura 4-5. La solución alternativa usa un objeto BoundingLeaf para los
límites.
Figura 4-5, Una alternativa a la situación del escenario gráfico para el objeto Behavior en SimpleBehaviorApp.
Anteriormente hemos visto los métodos processStimulus() e initialize(). Ahora vamos a ver el
resto de los métodos de la clase Behavior.
El método wakeupOn() se usa en los métodos initialize() y processStimulus() para seleccionar el
disparo para el comportamiento. El parámetro de este método es un objeto
WakeupCondition. En secciones posteriores veremos WakeupCondition, y las clases
relacionadas.
El método postId() permite a un comportamiento comunicarse con otro método. Una de las
condiciones de disparo es WakeupOnBehaviorPost. Los objetos Behavior pueden estar
coordinados para crear colaboraciones complejas usando el método postId() en conjunción con
condiciones WakeupOnBehaviorPost apropiadas.
El método setEnable() proporciona la forma de desactivar un comportamiento incluso si los
límites están activos. El valor por defecto es true (es decir, el objeto comportamiento está
activado).
Un objeto behavior está activo sólo cuando sus límites intereseccionan con el volumen de
activación de un View. Como es posible tener varias vistas en un universo virtual, un
comportamiento puede hacerse activo por más de una vista.
El método getView() es útil con comportamientos que tratan con información por-vista (por
ejemplo, Billboard, LOD) y con comportamientos en general para programar en el tiempo.
Este método devuelve una referencia al objeto View primario asociado actualmente con el
comportamiento. No existe el correspondiente método setView. La vista "primaria" se define
como la primera vista adjunta a un ViewPlatform vivo, si hay más de una vista activa. Por
eso, por ejemplo, los comportamientos Billboard podrían orientar hacia adelante esta vista
primaria, en caso de varias vistas activas dentro del mismo escenario gráfico.
Sumario de Métodos de la Clase Behavior
Behavior es una clase abstracta que contiene el marco de trabajo para los componentes de
comportamiento en Java 3D.
View getView()
Devuelve la vista primaria asociada con este comportamiento.
void initialize()
Inicializa este comportamiento.
void postId(int postId)
Postea la identidad especficada.
void processStimulus(java.util.Enumeration criteria)
Procesa un estímulo para este comportamiento.
void setEnable(boolean state)
Activa o desactiva este comportamiento.
void setSchedulingBoundingLeaf(BoundingLeaf region)
Selecciona la región de límites del comportamiento con los límites del leaf especificado.
void setSchedulingBounds(Bounds region)
Selecciona la región de límites del comportamiento con los límites especificados.
void wakeupOn(WakeupCondition criteria)
Define este criterio de disparo del comportamiento.
API ViewPlatform
Los Comportamientos están activos (dispuestos para ser disparados) sólo cuando sus límites
(o BoundingLeaf) intersecciona con el volumen de activación de una ViewPlatform.
Lista Parcial de Métodos de la Clase ViewPlatform
Condiciones de Disparo:
Cómo se Disparan los Comportamientos
Los comportamientos activados se disparan por la ocurrencia de uno o más estimulos
especificados. El estimulo de disparo para un comportamiento se especifica usando
descendientes de la clase WakeupCondition.
La clase abstracta, WakeupCondition, es la base para todas las clases de disparo del API
Java 3D. Cinco clases extienden WakeupCondition, una es la clase abstracta
WakeupCriterion, las otras cuatro permiten la composición de múltiples condiciones de
disparo en una única condición de disparo. La Figura 4-7 muestra el árbol de clases.
Figura 4-7, el Árbol de Clases para WakeupCondition y clases relacionadas.
Una condición de disparo para un objeto behavior se puede especificar como un criterio de
disparo específico o como una combinación de criterios usando clases compuestas. Las
siguientes secciones describen WakeupCondition y sus subclases.
WakeupCondition
La clase WakeupCondition proporciona dos métodos. El primer método, allElements,
devuelve una lista enumeration de todos los criterios de disparo para el objeto
WakeupCondition. El otro método, triggeredElements, enumera qué criterio ha causado que el
comportamiento sea disparado. Este método podría ser muy útil en el método processStimulus
de un objeto Behavior.
Sumario de Métodos de WakeupCondition
La clase abstracta WakeupCondition es la base para todas las clases wakeup. Proporciona los
siguientes métodos:
Enumeration allElements()
Devuelve una enumeración con todos los objetos WakeupCriterion en esta condición.
Enumeration triggeredElements()
Devuelve una enumeración de todos los objetos WakeupCriterion disparados en esta condición.
WakeupCriterion
WakeupCriterion es una clase abstracta para todas las clases wakeup. WakeupCriterion
sólo proporciona un método: hasTriggered. Probablemente no necesitaremos usar este método
ya que el método triggeredElements de WakeupCondition realiza esta operación por nosotros.
Sumario de Métodos de WakeupCriterion
boolean hasTriggered()
Devuelve true si el criterio disparó el comportamiento.
Clases WakeupCriterion Específicas
La Tabla 4-2 presenta las 14 clases WakeupCriterion específicas. Estas clases se usan para
especificar las condiciones de disparo de los objetos behavior. Los ejemplares de estas
clases se usan individualmente o en combinaciones.
Clase Criterio Disparo
en la primera detección de una intersección del volumen de
WakeupOnActivation activación de un ViewPlatform con la región límite del
objeto.
WakeupOnAWTEvent cuando ocurre un evento AWT específico
WakeupOnBehaviorPost cuando un objeto behavior envía un evento específico
en la primera detección de colisión del objeto especificaco con
WakeupOnCollisionEntry
otro objeto del escenario gráfico.
cuando el objeto especifico no colisiona con ningún otro
WakeupOnCollisionExit
objeto del escenario gráfico.
cuando el objeto especificado se mueve mientras colisiona con
WakeupOnCollisionMovement
otro objeto del escenario gráfico
cuando el volumen de activación de un ViewPlatform deja
WakeupOnDeactivation
de intereseccionar con los límites del objeto
WakeupOnElapsedFrames cuando ha pasado un número determinado de frames
WakeupOnElapsedTime cuando ha pasado un número de segundos determinado
en la primera detección de cualquier sensor que intersecciona
WakeupOnSensorEntry
con los límites especificados
cuando un sensor que interseccionava con los límites del
WakeupOnSensorExit
objeto deja de interseccionar con los límites especificados
cuando cambia la transformación dentro de un
WakeupOnTransformChange
TransformGroup especificado
en la primera detección de intersección del volumen de
WakeupOnViewPlatformEntry
activación de un ViewPlatform con los límites especificados
cuando el volumen de activación de una vista deja de
WakeupOnViewPlatformExit
intereseccionar con los límites especificados
WakeupOnActivation
Extiende: WakeupCriterion
Esta clase especifica la condición de disparo en la primera detección de una interesección del
volumen de activación de un ViewPlatform con la región límite de su objeto.
WakeupOnActivation está emparejado con WakeupOnDeactivation que veremos más
adelante.
WakeupOnActivation()
Construye un nuevo criterio WakeupOnActivation.
WakeupOnAWTEvent
Extiende: WakeupCriterion
Esta clase especifica el disparo de un Behavior cuando ocurre un evento AWT específico.
WakeupOnAWTEvent(int AWTId)
Construye un nuevo objeto WakeupOnAWTEvent, donde AWTId es uno de
KeyEvent.KEY_TYPED, KeyEvent.KEY_PRESSED, KeyEvent.KEY_RELEASED,
MouseEvent.MOUSE_CLICKED, MouseEvent.MOUSE_PRESSED, MouseEvent.MOUSE_RELEASED,
MouseEvent.MOUSE_MOVED, MouseEvent.MOUSE_DRAGGED, o uno de los otros muchos valores
de eventos.
WakeupOnAWTEvent(long eventMask)
Construye un nuevo objeto WakeupOnAWTEvent usando valores ORed EVENT_MASK. Estos
valores son: KEY_EVENT_MASK, MOUSE_EVENT_MASK, MOUSE_MOTION_EVENT_MASK, u otros
valores.
Sumario de métodos de WakeupOnAWTEvent
AWTEvent[] getAWTEvent()
Recupera el array de eventos AWT consecutivos que ocasionaron el disparo.
WakeupOnBehaviorPost
Extiende: WakeupCriterion
El Fragmento de Código 4-3 y el Fragmento de Código 4-4 muestran un código parcial para
un programa de ejemplo que usa posteo de comportamientos para coordinar
comportamientos. El ejemplo abre y cierra una puerta. El código incluye una clase:
OpenBehavior, y el código que crea los dos objetos behavior. El segundo objeto es un
ejemplar de CloseBehavior, que es casi un duplicado exacto de OpenBehavior. En
CloseBehavior, la condición es compartida en el método initialization (y el comportamiento
opuesto completado).
Los objetos de estas dos clases responderán en estricta alternancia a los eventos de
pulsación de teclas. El comportamiento OpenBehavior se disparará en respuesta a la
primera pulsación. En su respuesta, señala el comportamiento CloseBehavior y selecciona
su condición de disparo para que sea una señal para este objeto. El objeto CloseBehavior
selecciona su condición de disparo para que sea una pulsación de tecla en respuesta a la
señal desde el objeto OpenBehavior. Puedes encontrar un programa de ejemplo en
DoorApp.java.
La siguiente pulsación de tecla dispara el objeto CloseBehavior. Este objeto ahora realiza la
misma función que acaba de realizar el objeto OpenBehavior: envía una señal y resetea su
propia condición de disparo. El objeto CloseBehavior cierra la puerta en respuesta a la
pulsación de tecla. De vuelta a las condiciones iniciales, la siguiente pulsación empezará de
nuevo todo el proceso.
WakeupOnCollisionEntry
Java 3D puede detectar la colisión de objetos en el mundo virtual. Hay tres clases
WakeupCriterion útiles para procesar la colisión de objetos: WakeupOnCollisionEntry,
WakeupOnCollisionMovement, y WakeupOnCollisionExit.
Un Criterio WakeupOnCollisionEntry se disparará cuando un objeto colisione por primera
vez. Luego, el criterio WakeupOnCollisionMovement disparará (potencialmente varios
disparos) mientras dos objetos están en colisión hay un movimiento relativo entre los
objetos. Finalmente, un sólo WakeupOnCollisionExit se diparará cuando finalice la colisión.
Java 3D sólo puede manejar una colisión por cada objeto a la vez. Una vez que se ha
detectado una colisión de un objeto, las colisiones con otros objetos no se detectarán hasta
que finalice la primera colisión. También puede ocurrir que una colisión sea tan breve que no
sea detectada y por lo tanto no se disparará ninguna condición.
La detección de colisiones es más compleja que esta discusión sobre las condiciones de
disparo. Sin embargo este tutorial no cubre la detección de colisiones en detalle, para esto
puedes referirte a la Especificación del API Java 3D.
Sumario de Constructores de WakeupOnCollisionEntry
Extiende: WakeupCriterion
WakeupOnCollisionEntry(SceneGraphPath armingPath)
Construye un nuevo criterio WakeupOnCollisionEntry con USE_BOUNDS como velocidad de
choque.
WakeupOnCollisionEntry(SceneGraphPath armingPath, int speedHint)
Construye un nuevo criterio WakeupOnCollisionEntry, donde speedHint es USE_BOUNDS o
USE_GEOMETRY.
WakeupOnCollisionExit
Extiende: WakeupCriterion
Esta clase especifica un disparo cuando se termina la colisión de un objeto especificado con otro
objeto en el escenario gráfico. También puedes ver: WakeupOnCollisionMovement, y
WakeupOnCollisionExit.
WakeupOnCollisionExit(Bounds armingBounds)
Construye un nuevo criterio WakeupOnCollisionExit.
WakeupOnCollisionExit(Node armingNode)
Construye un nuevo criterio WakeupOnCollisionExit.
WakeupOnCollisionExit(Node armingNode, int speedHint)
Construye un nuevo criterio WakeupOnCollisionExit, donde speedHint es:
● USE_BOUNDS - Usa límites geométircos como una aproximación al cálculo de colisiones.
WakeupOnCollisionExit(SceneGraphPath armingPath)
Construye un nuevo criterio WakeupOnCollisionExit.
WakeupOnCollisionExit(SceneGraphPath armingPath, int speedHint)
Construye un nuevo criterio WakeupOnCollisionExit, donde speedHint es USE_BOUNDS, o
USE_GEOMETRY.
Sumario de Métodos de WakeupOnCollisionExit
Bounds getArmingBounds()
Devuelve los límites del objeto usado en la especificación de la condición de colisión.
SceneGraphPath getArmingPath()
Devuelve el path usado en la especificación de la condición de colisión.
Bounds getTriggeringBounds()
Devuelve el objeto Bounds que causó la colisión.
SceneGraphPath getTriggeringPath()
Devuelve el path que describe el objeto que causó la colisión.
WakeupOnCollisionMovement
Extiende: WakeupCriterion
Esta clase especifica un disparo cuando el objeto especificado se mueve durante la colisión con
otro objeto en el escenario gráfico. También puedes ver: WakeupOnCollisionEntry, y
WakeupOnCollisionExit.
WakeupOnCollisionMovement(Bounds armingBounds)
Construye un nuevo criterio WakeupOnCollisionMovement.
WakeupOnCollisionMovement(Node armingNode)
Construye un nuevo criterio WakeupOnCollisionMovement.
WakeupOnCollisionMovement(Node armingNode, int speedHint)
Construye un nuevo criterio WakeupOnCollisionMovement, donde speedHint es:
● USE_BOUNDS - Usa límites geométircos como una aproximación al cálculo de colisiones.
WakeupOnCollisionMovement(SceneGraphPath armingPath)
Construye un nuevo criterio WakeupOnCollisionMovement.
WakeupOnCollisionMovement(SceneGraphPath armingPath, int speedHint)
Construye un nuevo criterio WakeupOnCollisionMovement, donde speedHint es USE_BOUNDS, o
USE_GEOMETRY.
Sumario de Métodos de WakeupOnCollisionMovement
Bounds getArmingBounds()
Devuelve el objeto Bounds usado para especificar la condición de colisión.
SceneGraphPath getArmingPath()
Devuelve el path usado en la especificación de la condición de colisión.
Bounds getTriggeringBounds()
Devuelve el objeto Bounds que causó la colisión.
SceneGraphPath getTriggeringPath()
Devuelve el path que describe el objeto que causó la colisión.
WakeupOnDeactivation
Sumario de Constructores de WakeupOnDeactivation
Extiende: WakeupCriterion
Esta clase especifica un disparo para la primera detección de que el volumen de activación deja
de interseccionar con la región de límites de este objeto. También puedes ver
WakeupOnActivation.
WakeupOnDeactivation()
Construye un nuevo criterio WakeupOnDeactivation.
WakeupOnElapsedFrames
Extiende: WakeupCriterion
Esta clase especifica un disparo cuando han pasado un número especificado de frames.
WakeupOnElapsedFrames(int frameCount)
Construye un nuevo criterio WakeupOnElapsedFrames.
Sumario de Métodos de WakeupOnElapsedFrames
int getElapsedFrameCount()
Devuelve el contador de marcos WakeupCriterion que fue utilizado cuando se construyó este
objeto.
WakeupOnElapsedTime
Extiende: WakeupCriterion
Esta clase especifica un disparo después de que hayan pasado un número de milisegundos
especificado.
WakeupOnElapsedTime(long milliseconds)
Construye un nuevo criterio WakeupOnElapsedTime.
Sumario de Métodos de WakeupOnElapsedTime
long getElapsedFrameTime()
Devuelve el valor de tiempo que se utilizó en la construcción de este objeto.
WakeupOnSensorEntry
En Java 3D, cualquier dispositivo de entrada distinto del teclado o el ratón es un sensor. Un
sensor es un concepto abstracto para un dispositivo de entrada. Cada sensor tiene un punto
caliente definido en el sistema de coordenadas del sensor. La intersección del punto caliente
de un sensor con una región puede detectarse con las clases WakeupOnSensorEntry y
WakeupOnSensorExit.
Es posible que un sensor entre y salga de una región armada tan rápidamente que ninguna
de las condiciones se dispare.
Sumario de Constructores de WakeupOnSensorEntry
Extiende: WakeupCriterion
WakeupOnSensorExit
Extiende: WakeupCriterion
Esta clase especifica un disparo en la primera detección de que un sensor que previamente
intereseccionaba con los límites deja de intereseccionar con los límites especificados. También
puedes ver WakeupOnSensorEntry.
WakeupOnSensorExit(Bounds region)
Construye un nuevo criterio WakeupOnExit.
Sumario de Métodos de WakeupOnSensorExit
Bounds getBounds()
Devuelve la especificación de límites de este objeto.
WakeupOnTransformChange
Extiende: WakeupCriterion
WakeupOnViewPlatformEntry
Extiende: WakeupCriterion
Esta clase especifica un disparo en la primera intersección del ViewPlatform con los límites
especificados.
WakeupOnViewPlatformEntry(Bounds region)
Construye un nuevo criterio WakeupOnEntry.
Sumario de Métodos de WakeupOnViewPlatformEntry
Bounds getBounds()
Devuelve la especificación de límites de este objeto.
WakeupOnViewPlatformExit
Extiende: WakeupCriterion
WakeupCondition Composition
Varios objetos WakeupCriteron pueden componer un solo WakeupCondition usando las cuatro
clases presentadas en esta sección. Las primeras dos clases permiten la composición de un
WakeupCondition desde una colección de objetos WakeupCriterion que son lógicamente
ANDed u ORed juntos, respectivamente. El tercero y siguientes permiten la composición de
ejemplares de las dos primeras clases en objeto WakeupCondition más complejos.
WakeupAnd
Extiende: WakeupCondition
Esta clase especifica cualquier número de criterios de disparo que son (AND) juntos de forma
lógica.
WakeupAnd(WakeupCriterion[] conditions)
Construye una nueva condición WakeupAnd.
WakeupOr
Sumario de Consctructores de WakeupOr
Extiende: WakeupCondition
Esta clase especifica cualquiere número de criterios de disparo que son (OR) juntos de forma
lógica.
WakeupAnd(WakeupCriterion[] conditions)
Construye una nueva condición WakeupOr.
WakeupAndOfOrs
Extiende: WakeupCondition
Esta clase especifica cualquier número de criterios de disparo WakeupOr que son (AND) juntos
de forma lógica.
WakeupAndOfOrs(WakeupOr[] conditions)
Construye una nueva condición WakeupAndOfOrs.
WakeupOrOfAnds
Extiende: WakeupCondition
Esta clase especifica cualquier número de criterios de disparo WakeupAnd que son (OR) juntos
de forma lógica.
WakeupOrsOfAnds(WakeupAnd[] conditions)
Construye una nueva condición WakeupOrOfAnds.
Podría ser que pensaramos que necesitar el acceso a los grupos de objeto Transform de la
plataforma significa abandonar la utilidad SimpleUniverse. Sin embargo, SimpleUniverse,
y las clases relacionadas, proporcionan una combinación de métodos para extraer el objeto
ViewPlatformTransform. Por lo tanto, podemos tener nuestro SimpleUniverse y navegar
en él también!
Específicamente, la siguiente línea de código extrae el ViewPlatformTransform de un
objeto de SimpleUniverse, su.
TransformGroup vpt = su.getViewingPlatform().getViewPlatformTransform();
Paquete: com.sun.j3d.utils.behaviors.keyboard
Extiende: Behavior
Como con algunas otras recetas, los pasos no tienen que ser realizados en el orden dado. El
paso dos se debe realizar antes del tres, del cuatro, y del cinco; los otros pasos se pueden
realizar en cualquier orden. También, los pasos dos y tres se pueden combinar usando un
constructor diferente.
El Fragmento de Código 4-7 presenta el método createSceneGraph del programa del ejemplo de
MouseRotateApp.java. El escenario gráfico incluye el objeto ColorCube. El usuario puede
rotar el ColorCube usando el ratón debido a la inclusión de un objeto MouseRotate en el
escenario gráfico.
La misma receta funcionará para las otras clases de comportamiento del ratón. De hecho los
tres comportamientos se pueden utilizar en la misma aplicación que funciona en el mismo
objeto visual. Puesto que cada uno de los comportamientos del ratón lee el transform
fuente antes de escribirlo, sólo se necesita un objeto TransformGroup incluso con tres
comportamientos de ratón. El programa del ejemplo de MouseRotateApp.java hace apenas
eso.
El siguiente ejemplo muestra cómo dos comportamientos del ratón trabajan en un solo
mundo virtual. El programa MouseRotate2App.java del ejemplo crea un escenario gráfico con
dos objetos ColorCube uno junto al otro en el mundo virtual. Cada uno de los ColorCubes
tiene un objeto MouseRotate asociado a él. Puesto que ambos objetos de comportamiento
del ratón están activos, cuando el usuario hace clic y mueve el ratón, ambos ColorCubes
rotan.
Si no quisieramos que ambos objetos rotaran, hay dos soluciones: 1) cambiar la posición del
espectador, o cambiar los límites del comportamiento, de modo que solamente un
comportamiento sesté activo, o 2) usar un mecanismo de selección para aislar el
comportamiento.
Esta clase abstracta se presenta aquí en el evento que deseamos ampliarlo para escribir una
clase personaliza de comportamiento del ratón. El método SetTransformGroup() es
probablemente el único que utilizarán los usuarios de un ejemplar de MouseBehavior. Los
otros métodos se crearón para los autores de las clases de comportamientos personalizados
del ratón.
Sumario de Métodos de MouseBehavior
La clase base para todos los manipuladores de ratón (puedes ver MouseRotate y MouseZoom
para ejemplos).
void initialize()
Inicializa el comportamiento.
void processMouseEvent(java.awt.event.MouseEvent evt)
Maneja eventos del ratón.
void processStimulus(java.util.Enumeration criteria)
Todos los manipuladores de ratón deben implementar este método de Behavior (para
responder a los estimulos).
void setTransformGroup(TransformGroup transformGroup)
Selecciona el TransformGroup para el comportamiento.
void wakeup()
Dispara manualmente el comportamiento.
Interface MouseCallback
Una clase que implementa este interfaz proporciona al método transformChanged que será
llamado cuando cambie el transform fuente de la manera especificada. Cada uno de los tres
comportamientos específicos del ratón implementa esta clase. Un programador simplemente
puede reemplazar el método transformChanged de una de esas clases para especificar un
método que se llamará cuando se modifique el transform.
Sumario de Métodos del Interface MouseBehaviorCallback
Paquete: com.sun.j3d.utils.behaviors.mouse
void transformChanged(int type, Transform3D transform)
Las clases que implementan este interface que se registran con un MouseBehaviors serán
llamadas cada vez que el comportamient actualice el Transform. El tipo es uno de
MouseCallback.ROTATE, MouseCallback.TRANSLATE, o MouseCallback.ZOOM.
Clases Específicas de Comportamientos de Ratón
MouseRotate
Un escenario gráfico que incluye un objeto MouseRotate permite que el usuario rote objetos
visuales en el mundo virtual. Los programas de ejemplo MouseRotateApp,
MouseRotate2App, y MouseBehaviorApp demuestran el uso de esta clase.
Sumario de Constructores de MouseRotate
Paquete: com.sun.j3d.utils.behaviors.mouse
Extiende: MouseBehavior
MouseRotate es un objeto de comportamiento de Java3D que deja a los usuarios controlar la
rotación de un objeto mediante una pulsación del botón izquierdo del ratón. Para utilizar esta
utilidad, primero creamos un TransformGroup sobre el que operará este comportamiento. El
usuario puede rotar cualquier objeto hijo del TransformGroup fuente.
MouseRotate()
Crea un comportamiento mouseRotate por defecto.
MouseRotate(TransformGroup transformGroup)
Crea un comportamiendo dando el transformgroup.
MouseRotate(int flags)
Crea un comportamiento con las banderas seleccionadas, donde las banderas son:
● MouseBehavior.INVERT_INPUT. Invierte la entradas.
MouseTranslate
Un escenario gráfico que incluye un objeto MouseTranslate permite que el usuario mueva
objetos visuales en un plano paralelo a la placa de la imagen en el mundo virtual.
Sumario de Constructores de MouseTranslate
Paquete: com.sun.j3d.utils.behaviors.mouse
Extiende: MouseBehavior
MouseZoom
Un escenario gráfico que incluye un objeto MouseZoom permite a los usuarios mover
objetos visuales en un plano orthogonal al plato de imagen en un mundo virtual.
Sumario de Constructores de MouseZoom
Paquete: com.sun.j3d.utils.behaviors.mouse
Extiende: MouseBehavior
MouseNavigation
Las tres clases específicas de comportamiento del ratón se pueden utilizar para crear un
universo virtual en el cual el ratón se utilice para la navegación. Cada una de las clases
específicas del comportamiento del ratón tiene un constructor que toma un solo parámetro
entero para las banderas. Cuando se utiliza MouseBehavior.INVERT_INPUTS como
argumento a este constructor, el comportamiento del ratón responde en la dirección opuesta.
Este comportamiento inverso es apropiado para cambiar el transform ViewPlatform. Es decir
las clases del comportamiento del ratón se pueden utilizar para el control navegacional.
El programa de ejemplo MouseNavigatorApp.java utiliza casos de las tres clases específicas
del comportamiento del ratón para la interacción navegacional. El Fragmento de Código 4-8
muestra el método createSceneGraph de este programa del ejemplo.
El TransformGroup fuente para cada uno de los objetos del comportamiento del ratón es el
ViewPlatform transform. El objeto SimpleUniverse es un argumento al método
createSceneGraph de modo que se puedan alcanzar los objetos transform de ViewPlatform.
Los objetos bounds para los objetos de comportamientos de ratón se especifican como un
BoundingSphere con un radio de 1000 metros. Si el usuario se sale de esta esfera, los
objetos comportamiento se desactivarán.
Picking
En el programa de ejemplo MouseNavigatorApp.java, ambos objetos ColorCube giran en
respuesta a acciones del usuario. En esta aplicación, no hay forma de manipular los cubos de
forma separada. "Picking" (Elección) le da al usuario una forma de interactuar con objetos
visuales individuales en la escena.
Picking (elección) está implementado por un comportamiento tipicamente disparado por
eventos de botones del ratón. En la selección de un objeto visual, el usuario sitúa el puntero
del ratón sobre el objeto elegido y pulsa el botón del ratón. El objeto behavior se dispara
por la pulsación de este botón y empieza la operación de selección. Se proyecta un rayo
dentro del mundo virtual desde la posición del puntero del ratón paralela con la proyección.
Se calcula la intersección de este rayo con los objetos del mundo virtual. El objeto visual que
interseccione más cerca al plato de la imagen se selecciona para interacción. La Figura 4-11
muestra un rayo de selección proyectado en un mundo virtual.
En algunos casos la interacción no se hace directamente con el objeto seleccionado, sino con
un objeto en el camino del escenario gráfico hasta el objeto. Por ejemplo, al seleccionar un
objeto ColorCube para rotación, este objeto no se manipula, se manipula el objeto
TransformGroup que hay sobre el ColorCube en el path del escenario gráfico. Por otro
lado, su la operación de selección selecciona un objeto visual para el que se pensó un cambio
de color, entonces el objeto visual seleccionado es requerido.
La determinación del objeto para un posterior procesamiento no siempre es sencilla. Si in
objeto visual cúbico que va a ser rotado está compuesto por seis objetos Shape3D
individuales junto con seis objetos TransformGroup, como en el escenario gráfico de la
Figura 4-12, no es el objeto TransformGroup sobre el objeto Shape3D interseccionado el
que necesita ser modificado. El 'cubo' se rota por la manipulación del objeto
TransformGroup que es hijo del objeto BranchGroup en el escenario gráfico. Por esta
razón, el resultado de algunas operaciones de selección es devolver el path del escenario
gráfico para su posterior procesamiento.
Figura 4-12, Diagrama del Escenario Gráfico para un Cubo Compuesto por objetos Shape3D planos.
Extiende: SceneGraphObject
Subclases: Group, Leaf
La clase Node proporciona una clase abstracta para todos los nodos Group y Leaf. Porporciona
un marco de trabajo común para construir un escenario gráfico Java 3D, especificamente
volúmenes, y las capacidades de selección y colisión.
void setBounds(Bounds bounds)
Selecciona los límites geométricos de un nodo.
void setBoundsAutoCompute(boolean autoCompute)
Activa/desactiva el cálculo automático de los límites geométricos de un nodo.
setPickable(boolean pickable)
Cuando se selecciona a true este nodo puede ser elegido. Cuando se selecciona a false indica
que este nodo y sus hijos no son elegibles.
Lista Parcial de Capacidades de Node
ENABLE_PICK_REPORTING
Especifica que este nodo será reportado en el SceneGraphPath si ocurre una selección. Esta
capacidad es sólo aplicable para nodos Group; es ignorado para nodos leaf. El valor por defecto
para nodos Group es false. Los nodos interiores no necesitan ser únicos en un
SceneGraphPath que no tiene seleccionado ENABLE_PICK_REPORTING serán excluidos del
SceneGraphPath.
ALLOW_BOUNDS_READ | WRITE
Especifica que este nodo permite leer (escribir) la información de sus límites.
ALLOW_PICKABLE_READ | WRITE
Especifica que este nodo permite leer (escribir) su estado de selección.
Otra forma en la que un programador puede reducir el cáculo de selección es usar pruebas
de interesección de límites en vez de pruebas de intersecciones geométricas. Varias clases
relacionadas con la selección (pick) tiene constructores y/o métodos con un parámetro que
se selecciona a uno de: USE_BOUNDS o USE_GEOMETRY. Cuando se selecciona
USE_BOUNDS, la selección está determinada usando los límites de los objetos visuales, no
la geometría real. La determinación de una selección usando los límites es significativamente
más sencilla (computacionalmente) para todo excepto para las formas geométricas sencillas
y por lo tanto, resulta en un mejor rendimiento. Por supuesto, la pérdida es que la selección
no es tan precisa cuando se utilizan límites para su determinación.
Una tercera técnica de programación para reducir el coste de cálculo para la selección es
limitar el ámbito de la prueba de selección a la porcion relevante del escenario gráfico. En
cada clase de utilidad de selección se selecciona un nodo como el raíz para el gráfico a
testear. Este nodo no es necesariamente el raíz de la rama de contenido gráfico. Por el
contrario, el nodo pasado debería ser el raíz de la subrama de contenido que sólo contiene
objetos elegibles, si es posible. Esta consideración pordría ser una mayor factor de
determinación en la construcción de un escenario gráfico para algunas aplicaciones.
Los Riesgos más comunes incluyen; olvidarse de incluir el objeto behavior en el escenario
gráfico, y no seleccionar los límites apropiados del objeto.
Otro problema común es no seleccionar las capacidades apropiadas para los objetos del
escenario gráfico. Hay otros dos problemas menores, que deberíamos chequear si nuestra
aplicación no funciona. Uno es no seleccionar apropiadamente el raíz del escenario gráfico.
Otro problema potencial es no seleccionar apropiadamente el canvas. Ninguno de estos
errores de programación generarán un aviso o mensaje de error.
Observa que como la construcción del objeto picking requiere un objeto Canvas3D, el
método createSceneGraph difiere de versiones anteriores por la inclusión del parámetro canvas.
Por supuesto, también cambia la correspondiente invocación a createSceneGraph.
1. public BranchGroup createSceneGraph(Canvas3D canvas) {
2. // Create the root of the branch graph
3. BranchGroup objRoot = new BranchGroup();
4.
5. TransformGroup objRotate = null;
6. PickRotateBehavior pickRotate = null;
7. Transform3D transform = new Transform3D();
8. BoundingSphere behaveBounds = new BoundingSphere();
9.
10. // create ColorCube and PickRotateBehavior objects
11. transform.setTranslation(new Vector3f(-0.6f, 0.0f, -0.6f));
12. objRotate = new TransformGroup(transform);
13. objRotate.setCapability(TransformGroup.ALLOW_TRANSFORM_WRITE);
14. objRotate.setCapability(TransformGroup.ALLOW_TRANSFORM_READ);
15. objRotate.setCapability(TransformGroup.ENABLE_PICK_REPORTING);
16.
17. objRoot.addChild(objRotate);
18. objRotate.addChild(new ColorCube(0.4));
19.
20. pickRotate = new PickRotateBehavior(objRoot,canvas, behaveBounds);
21. objRoot.addChild(pickRotate);
22.
23. // add a second ColorCube object to the scene graph
24. transform.setTranslation(new Vector3f( 0.6f, 0.0f, -0.6f));
25. objRotate = new TransformGroup(transform);
26. objRotate.setCapability(TransformGroup.ALLOW_TRANSFORM_WRITE);
27. objRotate.setCapability(TransformGroup.ALLOW_TRANSFORM_READ);
28. objRotate.setCapability(TransformGroup.ENABLE_PICK_REPORTING);
29.
30. objRoot.addChild(objRotate);
31. objRotate.addChild(new ColorCube(0.4));
32.
33. // Let Java 3D perform optimizations on this scene graph.
34. objRoot.compile();
35.
36. return objRoot;
37. } // end of createSceneGraph method of MousePickApp
Fragmento de Código 4-9, Método createSceneGraph de la aplicación MousePickApp.
Clases PickShape
Una clase general para describir un forma de selección que puede usarse con métodos de
selección de BranchGroup y Locale.
PickBounds
Los objetos PickBounds representan un límite para testear elecciones. Como una subclase
de PickShape, los objetos PickBounds se usan con BranchGroup y Locale así como con
clases del paquete picking.
Sumario de Constructores de PickBounds
Extiende: PickShape
PickPoint
Los objetos PickPoint representan un punto para selección. Como una subclase de
PickShape, los objetos PickBounds se usan con BranchGroup y Locale así como con
clases del paquete picking.
Sumario de Constructores de PickPoint
Extiende: PickShape
PickRay
Los objetos PickRay representan un rayo (un punto y una dirección) para selección. Como
una subclase de PickShape, los objetos PickBounds se usan con BranchGroup y Locale
así como con clases del paquete picking.
Sumario de Constructores de PickRay
Extiende: PickShape
PickSegment
Los objetos PickSegment representan un segmento de línea (definida por dos puntos) para
selección. Como una subclase de PickShape, los objetos PickBounds se usan con
BranchGroup y Locale así como con clases del paquete picking.
Sumario de Constructores de PickSegment
Extiende: PickShape
SceneGraphPath
En el array de nodos internos, el nodo en el índice 0 es el nodo más cercano al Locale. El índice
se incrementa a lo largo del camino hacia el nodo terminal, con el nodo de índice longitud-1
siendo el nodo más cercano la nodo terminal. El array de nodos no contiene ni el Locale (que no
es un nodo) ni el nodo terminal.
Sumario de Constructores de SceneGraphPath
En los siguientes bloques de referencia están los métodos de las clases BranchGroup y
Local para chequeo de intersección con objetos PickShape. Este es el nivel de cálculo de
selección más bajo proporcionado por el API Java 3D.
Métodos de selección de BranchGroup y Locale para su uso con PickShape
SceneGraphPath[] pickAll(PickShape pickShape)
Devuelve un array que referencia todos los ítems que son elegibles bajo este BranchGroup que
intereseccionan con PickShape. El array resultante no está ordenado.
SceneGraphPath[] pickAllSorted(PickShape pickShape)
Devuelve un array ordenado de referencias a todos los ítems elegibles que interseccionan con el
pickShape. Element [0] referencia el ítem más cercano al origen de PickShape, con los
elementos siguientes alejándose del origen. Nota: si pickShape es del tipo PickBounds, el
array resultante no está ordenado.
SceneGraphPath pickClosest(PickShape pickShape)
Devuelve un SceneGraphPath que referencia el ítem elegible que está más cercano al origen
de pickShape. Nota: si pickShape es del tipo PickBounds, la respuesta es cualquier nodo
elegible debajo de este BranchGroup.
SceneGraphPath pickAny(PickShape pickShape)
Devuelve una referencia a cualquir ítem elegible debajo de este BranchGroup que intersecciona
con pickShape.
Clase PickMouseBehavior
Paquete: com.sun.j3d.utils.behaviors.picking
Extiende: Behavior
Clase base que permite a los programadores añadir selección y manipulación del ratón en un
escenario gráfico (puedes ver PickDragBehavior para un ejemplo de cómo extender esta clase
base).
void initialize()
Este método debería ser sobreescrito para proporcionar estado inicial y la condición de disparo
inicial.
void processStimulus(java.util.Enumeration criteria)
Este método debería sobreescribirse para proporcionar el comportamiento en respuesta a una
condición de disparo.
void updateScene(int xpos, int ypos)
Las subclases deberían implementar esta función update.
Clase PickObject
La clase PickObject proporciona métodos para determinar qué objeto fué seleccionado por
una operación de selección del usuario. Una amplia variedad de métodos resulta de las
distitnas formas posibles de aplicaciones de selección. Es útil crear clases de selección
personalizadas.
Sumario de Constructores de PickObject
Paquete: com.sun.j3d.utils.behaviors.picking
Extiende: java.lang.Object
Esta lista ha sido ordenada para excluir los métodos con parámetros de bandera. Estos métodos
son idénticos a los incluidos en esta lista con la diferencia del parámetro bandera. Estos métodos
son: pickAll, pickSorted, pickAny, y pickClosest.
PickShape generatePickRay(int xpos, int ypos)
Crea un PickRay que empieza en la posición del espectador y apunta dentro de la escena en
dirección a (xpos, ypos) especificados en el espacio de la ventana.
SceneGraphPath[] pickAll(int xpos, int ypos)
Devuelve un array que referencia todos los ítems que son elegibles debajo del BranchGroup
(especificado en el constructor de PickObject) que interseccionan con un rayo que empieza en la
posición del espectador y apunta dentro de la escena en dirección (xpos, ypos) especificados en
el espacio de la ventana.
SceneGraphPath[] pickAllSorted(int xpos, int ypos)
Devuelve un array ordenado de referencias a todos los ítems Pickable bajo el BranchGroup
(especificado en el constructor de PickObject) que interesecciona con el rayo que empieza en la
posición del espectador y apunta a la dirección de (xpos, ypos) en el espacio de la ventana.
SceneGraphPath pickAny(int xpos, int ypos)
Devuelve una referencia a cualquier ítem que sea elegible debajo del BranchGroup
(especificado en el constructor de PickObject) que interesecciona con el rayo que empieza en la
posición del espectador y apunta a la dirección (xpos, ypos) en el espacio de la ventana.
SceneGraphPath pickClosest(int xpos, int ypos)
Devuelve una referencia al ítem que está más cercano al espectador y es elegible bajo el
BranchGroup (especificado en el constructor de PickObject) que interesecciona con el rayo que
empieza en la posición del espectador y apunta a la dirección (xpos, ypos) en el espacio de la
ventana.
Node pickNode(SceneGraphPath sgPath, int node_types)
Devuelve una referencia a un nodo elegible que es del tipo especificado que está contenido en el
SceneGraphPath especificado. Donde node_types es la OR lógica de uno o más:
PickObject.BRANCH_GROUP, PickObject.GROUP, PickObject.LINK, PickObject.MORPH,
PickObject.PRIMITIVE, PickObject.SHAPE3D, PickObject.SWITCH,
PickObject.TRANSFORM_GROUP.
Node pickNode(SceneGraphPath sgPath, int node_types, int occurrence)
Devuelve una referencia a un nodo elegible que es del tipo especificado que está contenido en el
SceneGraphPath especificado. Donde node_types está definido en el método anterior. El
parámetro occurrence indica qué objeto devolver.
Interface PickingCallback
Paquete: com.sun.j3d.utils.behaviors.picking
void transformChanged(int type, TransformGroup tg)
Lllamado por el Behavior Pick que es retro-llamado que es registrado cada vez que se intenta
la selección. Los valores de tipos válidos son: ROTATE, TRANSLATE, ZOOM o NO_PICK (el
usuario hace una selección pero no hay nada seleccionado realmente).
Clase Intersect
Paquete: com.sun.j3d.utils.behaviors.picking
Extiende: java.lang.Object
Contiene métodos estáticos para ayudar a las comprobaciones de intersección entre varias
clases PickShape y geometrías primitivas (como quad, triangle, line y point).
Intersect()
Crea un objeto intersect.
Lista Parcial de Métodos de Intersect
Esta clase tiene vaios métodos de intersección, algunos de los cuales sólo se diferencian por un
tipo de parámetro. Por ejemplo el método: boolean pointAndPoint(PickPoint point, Point3f pnt) se
diferencia del segundo método listado aquí en el tipo del parámetro pnt. La mayoría de los
métodos listado aquí con un parámetro del tipo Point3d tienen un método correspondiente con
un parámetro del tipo Point3f.
boolean pointAndLine(PickPoint point, Point3d[] coordinates, int index)
Devuelve true si el PickPoint y el objeto Line interseccionan. coordinates[index] y
coordinates[index+1] definen la línea.
boolean pointAndPoint(PickPoint point, Point3d pnt)
Devuelve true si el PickPoint y el objeto Point3d interseccionan.
boolean rayAndLine(PickRay ray, Point3d[] coordinates, int index,
double[] dist)
Devuelve true si el PickPoint y el objeto Line interseccionan. coordinates[index] y
coordinates[index+1] definen la línea.
boolean rayAndPoint(PickRay ray, Point3d pnt, double[] dist)
Devuelve true si el PickPoint y el objeto Point3d interseccionan. Devuelve true si el PickPoint
y el objeto cuadrilátero interseccionan.
boolean rayAndTriangle(PickRay ray, Point3d[] coordinates, int index,
double[] dist)
Devuelve true si el triángulo intersecciona con el rayo, la distancia desde el origen del rayo al
punto de intersección, se almacena en dist[0]. coordinates[index], coordinates[index+1],
ycoordinates[index+2] definen el triángulo.
boolean segmentAndLine(PickSegment segment, Point3d[] coordinates, int index,
double[] dist)
Devuelve true si la lína intersecciona con el segmento; la distanta desde el inicio del segmento a
la intersección se almacena dist[0]. coordinates[index] y coordinates[index+1] definen la línea.
boolean segmentAndPoint(PickSegment segment, Point3d pnt, double[] dist)
Devuelve true si el PickSegment y el objeto Point3d interseccionan.
boolean segmentAndQuad(PickSegment segment, Point3d[] coordinates, int index,
double[] dist)
Devuelve true si el quad intersecciona con el segmento; la distancia desde el inicio del segmento
al punto de intersección se almacena en dist[0].
boolean segmentAndTriangle(PickSegment segment, Point3d[] coordinates,
int index, double[] dist)
Devuelve true si el triangulo intersecciona con el segmento; la distancia desde el inicio del
segmento al punto de intersección se almacena en dist[0].
PickRotateBehavior
Esta clase permite al usuario seleccionar y rotar interactivamente un objeto visual. El usuario
usa el botón izquierdo del ratón para seleccionar y rotar. Se puede usar un ejemplar de
PickRotateBehavior en conjunción con otras clases de selección específicas.
Sumario de Constructores de PickRotateBehavior
Paquete: com.sun.j3d.utils.behaviors.picking
Extiende: PickMouseBehavior
Implementa: PickingCallback
PickTranslateBehavior
Paquete: com.sun.j3d.utils.behaviors.picking
Extiende: PickMouseBehavior
Implementa: PickingCallback
Un comportamiento de ratón que permite al usuario seleccionar y trasladar objetos de un
escenario gráfico; expándible a través de retro-llamada.
PickTranslateBehavior(BranchGroup root, Canvas3D canvas, Bounds bounds)
Crea un comportamiento que espera eventos del ratón para el escenario gráfico
PickTranslateBehavior(BranchGroup root, Canvas3D canvas, Bounds bounds,
int pickMode)
Crea un comportamiento que espera eventos del ratón en el escenario gráfico. El parámetro
pickMode se especifica como uno de PickObject.USE_BOUNDS o
PickObject.USE_GEOMETRY. Nota: si pickMode se selecciona a
PickObject.USE_GEOMETRY, todos los objetos geométricos del escenario gráfico están
disponibles para su selección y deben tener activado su ALLOW_INTERSECT.
Sumario de Métodos de PickTranslateBehavior
void setPickMode(int pickMode)
Selecciona el componente pickMode de este PickTranslateBehavior al valor pasado en pickMode.
void setupCallback(PickingCallback callback)
Registra la clase de retrollamada que será llamada cada vez que el objeto seleccionado se
mueva.
void transformChanged(int type, Transform3D transform)
Método de retrollamada desde MouseTranslate. Se usa cuando la selección por retrollamada está
activa.
void updateScene(int xpos, int ypos)
Actualiza la escena para manipular cualquier nodo.
PickZoomBehavior
Esta clase permite al usuario seleccionar y hacer zoom interactivamente un objeto visual. El
usuario usa el botón central del ratón para seleccionar y hacer zoom. Se puede usar un
ejemplar de PickZoomBehavior en conjunción con otras clases de selección específicas.
Sumario de Constructores de PickZoomBehavior
Paquete: com.sun.j3d.utils.behaviors.picking
Extiende: PickMouseBehavior
Implementa: PickingCallback
Un comportamiento de ratón que permite al usuario seleccionar y hacer zoom a objetos de un
escenario gráfico; expándible a través de retro-llamada.
PickZoomBehavior(BranchGroup root, Canvas3D canvas, Bounds bounds)
Crea un comportamiento que espera eventos del ratón para el escenario gráfico.
PickZoomBehavior(BranchGroup root, Canvas3D canvas, Bounds bounds,
int pickMode)
Crea un comportamiento que espera eventos del ratón en el escenario gráfico. El parámetro
pickMode se especifica como uno de PickObject.USE_BOUNDS o
PickObject.USE_GEOMETRY. Nota: si pickMode se selecciona a
PickObject.USE_GEOMETRY, todos los objetos geométricos del escenario gráfico están
disponibles para su selección y deben tener activado su ALLOW_INTERSECT.
Sumario de Métodos de PickZoomBehavior
void setPickMode(int pickMode)
Selecciona el componente pickMode de este PickZoomBehavior al valor pasado en pickMode.
void setupCallback(PickingCallback callback)
Registra la clase de retrollamada a llamar cada vez que el objeto se seleccione.
void transformChanged(int type, Transform3D transform)
Metodo de retrollamada desde MouseZoom. Se usa cuando la selección con retrollamada está
activa.
void updateScene(int xpos, int ypos)
Update the scene to manipulate any nodes.
@ Ozito Anterior :: Home :: Siguiente
@ Ozito Anterior :: Home :: Siguiente
Animación en Java 3D
La igual que las interacciones, las animaciones Java 3D se implementan usando ojetos
Behavior. Como podrás imaginar, se puede crear cualquier animación personalizada
usando objetos Behavior. Sin embargo, el API Java 3D proporciona varias clases útiles
para crear animaciones sin tener que crear una nueva clase. No debería sorprendernos que
estas clases estén basadas en la clase Behavior.
Un conjunto de clases de animación es conocido como interpoladores. Un objeto
Interpolator, junto con un objeto Alpha, manipula algún parámetro de un objeto del
escenario gráfico para crear animaciones basadas en el tiempo. El objeto Alpha proporciona
el temporizado.
Otro conjunto de clases de animación animan objetos visuales en respuestas a cambios en
la vista. Este conjunto de clases incluye los comportamientos Billboard y Level of Detail
(LOD) que no están dirigidos por el paso del tiempo, sino por la posición u orientación de la
vista. La Figura 5-1 muestra las clases de alto nivel del árbol de clases para animación.
Una forma de onda alpha no siempre usa las cuatro fases. Podría estar formada por una,
dos, tres o las cuatro fases de la forma de onda Alpha. La Figura 5-3 muestra seis de las
quince formas de ondas posibles.
Figura 5-3, Algunas Formas de Ondas Básicas Creadas con un Objeto Alpha.
El objeto alpha tiene dos modos que especifican un subconjunto de fases a usar. El modo
INCREASING_ENABLE indica que se usan las fases de incremento alpha y alpha a uno . El
modo DECREASING_ENABLE indica que se usan las fases decremento alpha y alpha a
cero. Un tercer modo es la combianción de los dos anteriores, lo que indica que se usarán
las cuatro fases.
La especificación de modo sobreescribe las selecciones de los parámetros de duración. Por
ejemplo, con el modo INCREASING_ENABLE, se ignoran los parámetros
DecreasingAlphaDuration, DecreasingAlphaRampDuration, y AlphaAtZeroDuration. También, se puede
especificar cualquier forma de onda especificando las duracciones de las fases no necesarias
como cero, la especificación apropiada del modo incrementa la eficiciencia del objeto Alpha.
La Figura 5-5 es una escena renderizada por ClockApp a las 4:30. La cara del reloj es
oblicua al espectador porque todo el reloj está rotando.
Figura 5-5, Escena renderizada a las 4:30 por el programa de ejemplo ClockApp.
Además de la duración de las cuatro fases, el programador puede especificar una duración
de la rampa para las fases de incremento y decremento alpha. Durante la duración de la
rampa, el valor de alpha cambia gradualmente. En el caso de interpoladores del
movimiento, parecerá como si el objeto visual acelerara y decelerara de un forma más
natural, como en el mundo real.
El valor de la duración de la rampa se utiliza para las porciones inicial y final de la fase y por
lo tanto la duración de la rampa está limitada a la mitad de la duración de la fase. La Figura
5-6 muestra una forma de onda alpha con IncreasingAlphaRampDuration y
DecreasingAlphaRampDuration. Observa que el valor de alpha cambia linearmente entre los dos
períodos de la rampa.
Figura 5-6, Suavizar la forma de onda producida por Alpha 9
Figura 5-7, Cuatro escenas renderizadas por AlphaApp mostrando el efecto de IncreasingAlphaRampDuration.
Unos 0,4 segundos después de que los coches comiencen, la primera imagen (izquierda) de
la Figura 5-7 fue capturada mostrando las posiciones de los coches. El coche superior, que
procederá en un ratio constante en ausencia de una rampa, ha viajado la mayor parte de la
distancia en el primer marco. Los otros dos coches comienzan más lentamente y aceleran.
Un segundo después (no mostrado), todos los coches han viajado la misma distancia. Las
posiciones relativas se invierten durante la segunda mitad de la fase. Al final de los dos
segundos, cada uno de los coches ha viajado la misma distancia.
El API Alpha
El API de la clase de la Alpha es correcto. Cuatro constructores cubren las aplicaciones más
comunes. Una plétora de métodos, enumerada en el bloque de referencia siguiente, hace el
trabajo fácil de modificar un objeto alpha para personalizar un objeto alpha para cualquier
aplicación.
Sumario de Constructores de Alpha
Extiende: Object
La clase Alpha convierte un valor de tiempo en un valor alpha (un valor en el rango 0 a 1,
inclusivo). El objeto alpha es efectivamente una función de tiempo que genera valores en el
rango [ 0.1 ]. Un uso común de alpha proporciona valores alpha para los comportamientos del
interpolador. Las características del objeto alpha están determinadas por parámetros definibles
por el usuario.
Alpha()
Construye un objeto Alpha con el mode = INCREASING_ENABLE, loopCount = -1,
increasingAlphaDuration = 1000, y todos los demás parámetros = 0, excepto StartTime.
StartTime se selecciona en el momento de comienzo del programa.
Alpha(int loopCount, long increasingAlphaDuration)
Este constructor sólo toma loopCount e increasingAlphaDuration como parámetros, selecciona el
modo a INCREASING_ENABLE y asigna 0 a todos los demás parámetros (excepto a StartTime).
Alpha(int loopCount, long triggerTime, long phaseDelayDuration,
long increasingAlphaDuration, long increasingAlphaRampDuration,
long alphaAtOneDuration)
Construye un nuevo objeto Alpha y selecciona el modo a INCREASING_ENABLE.
Alpha(int loopCount, int mode, long triggerTime, long phaseDelayDuration,
long increasingAlphaDuration, long increasingAlphaRampDuration,
long alphaAtOneDuration, long decreasingAlphaDuration,
long decreasingAlphaRampDuration, long alphaAtZeroDuration)
Este constructor toma todos los parámetros definidos por el usuario.
Lista Parcial de Métodos de Alpha
Cada uno de estos métodos tiene su correspondiente método get que devuelve un valor del tipo
que corresponda al parámetro del método set.
boolean finished()
Comprueba si este objeto alpha ha finalizado totalmente su actividad.
void setAlphaAtOneDuration(long alphaAtOneDuration)
Selecciona el valor de alphaAtOneDuration al valor especificado.
void setAlphaAtZeroDuration(long alphaAtZeroDuration)
Selecciona el valor de alphaAtZeroDuration al valor especificado.
void setDecreasingAlphaDuration(long decreasingAlphaDuration)
Selecciona el valor de decreasingAlphaDuration al valor especificado.
void setDecreasingAlphaRampDuration(long decreasingAlphaRampDuration)
Selecciona el valor de decreasingAlphaRampDuration al valor especificado.
void setIncreasingAlphaDuration(long increasingAlphaDuration)
Seleciciona el valor de increasingAlphaDuration al valor especificado.
void setIncreasingAlphaRampDuration(long increasingAlphaRampDuration)
Selecciona el valor de increasingAlphaRampDuration al valor especificado.
void setLoopCount(int loopCount)
Selecciona el valor de loopCount al valor especificado.
void setMode(int mode)
Selecciona el modo al especificado en este argumento. Este puede ser INCREASING_ENABLE,
DECREASING_ENABLE, o un valor OR de los dos
● DECREASING_ENABLE - Especifica que se usan las fases 3 y 4
Extiende: Behavior
Subclases conocidas: ColorInterpolator, PathInterpolator, PositionInterpolator, RotationInterpolator,
ScaleInterpolator, SwitchValueInterpolator, TCBSplinePathInterpolator, TransparencyInterpolator
ColorInterpolator
Figura 5-10, Escenario gráfico parcial de un objeto ColorInterpolator y su objeto fuente Material NodeComponent.
Extiende: Interpolator
Esta clase define un comportamiento que modifica el color difuso de su objeto Material fuente
interpolandolo linearmente entre una pareja de colores especificados (usando el valor generado
por el objeto Alpha).
ColorInterpolator(Alpha alpha, Material target)
Construye un colorInterpolator trivial con una fuente especificada, un color inicial negro y un
color final blanco.
ColorInterpolator(Alpha alpha, Material target, Color3f startColor,
Color3f endColor)
Construye un colorInterpolator con la fuente especificada, y los colores inicial y final.
Lista Parcial de Métodos de ColorInterpolator
Los métodos get no siguen las convenciones de los otros interpoladores.
void setEndColor(Color3f color)
Selecciona el color final de este interpolator.
Correspondiente método get: void getEndColor(Color3f color)
void setStartColor(Color3f color)
Selecciona el color inicial de este interpolator.
Correspondiente método get: void getStartColor(Color3f color)
void setTarget(Material target)
Seleccion el componente fuente de este interpolator.
Correspondiente método get: Material getTarget()
PositionInterpolator
Extiende: Interpolator
Cada uno de estos métodos tiene un correspondiente método get sin parámetros que devuelve
un valor del tipo correspondiente al parámetro del método set.
void setAxisOfTranslation(Transform3D axisOfTranslation)
Selecciona el eje de traslación de este interpolator.
void setEndPosition(float position)
Selecciona la posición final de este interpolator.
void setStartPosition(float position)
Selecciona la posición inicial de este interpolator.
void setTarget(TransformGroup target)
Selecciona la fuente de este interpolator.
RotationInterpolator
Extiende: Interpolator
Cada uno de estos métodos tiene un correspondiente método get sin parámetros que devuelve
un valor del tipo correspondiente al parámetro del método set.
void setAxisOfRotation(Transform3D axisOfRotation)
Selecciona el eje de rotación de este interpolator.
void setMaximumAngle(float angle)
Selecciona el ángulo máximo de este interpolator, en radianes.
void setMinimumAngle(float angle)
Selecciona el ángulo mínimo de este interpolator, en radianes.
void setTarget(TransformGroup target)
Selecciona el nodo TransformGroup para este interpolator.
ScaleInterpolator
Extiende: Interpolator
Cada uno de estos métodos tiene un correspondiente método get sin parámetros que devuelve
un valor del tipo correspondiente al parámetro del método set.
void setAxisOfScale(Transform3D axisOfScale)
Selecciona el eje de escala para este interpolator.
void setMaximumScale(float scale)
Selecciona la escala máxima para este interpolator.
void setMinimumScale(float scale)
Selecciona la escala mínima para este interpolator.
void setTarget(TransformGroup target)
Selecciona el TransformGroup fuente para este interpolator.
SwitchValueInterpolator
Extiende: Interpolator
Esta clase define un comportamiento que modifica el hijo seleccionado del nodo switch
interpolandolo linearmente entre un par hijos especificados (usando el valor generado por el
objeto alpha).
SwitchValueInterpolator(Alpha alpha, Switch target)
Construye un SwitchValueInterpolator que varía su índice de nodo Switch fuente entre 0 y n-1,
donde n es es el número de hijos del nodo Switch fuente.
SwitchValueInterpolator(Alpha alpha, Switch target, int firstChildIndex,
int lastChildIndex)
Construye un SwitchValueInterpolator que varía el índice de nodo entre los dos valores
proporcionados.
Lista Parcial de Métodos de SwitchValueInterpolator
Cada uno de estos métodos tiene un correspondiente método get sin parámetros que devuelve
un valor del tipo correspondiente al parámetro del método set.
void setFirstChildIndex(int firstIndex)
Selecciona el primer índice de hijo para este interpolator.
void setLastChildIndex(int lastIndex)
Selecciona el último índice de hijo para este interpolator.
void setTarget(Switch target)
Selecciona la fuente de este interpolator.
Switch
Extiende: Group
El nodo Switch controla cuál de sus hijos será renderizado. Define un valor de selección de hijo
(un valor switch) que puede seleccionar un sólo hijo, o puede seleccionar cero o más hijos
usando una máscara para indicar que hijos son seleccionados para renderización.
Switch()
Construye un nodo Switch con los parámetros por defecto.
Switch(int whichChild)
Construye e inicializa un nodo Switch usando los índices de hijos especificados.
● CHILD_ALL todos los hijos son renderizados
Cada uno de estos métodos tiene un correspondiente método get sin parámetros que devuelve
un valor del tipo correspondiente al parámetro del método set.
void setChildMask(java.util.BitSet childMask)
Selecciona la máscara de selección de hijos.
void setWhichChild(int child)
Selecciona el índice de selección de hijos que especifica qué hijo será renderizado.
Sumaro de Capacidades de Switch
ALLOW_SWITCH_READ | WRITE
Especifica que este nodo permite leer sus valores de selección de hijos de máscara y de hijo
actual
TransparencyInterpolator
Extiende: Interpolator
Cada uno de estos métodos tiene un correspondiente método get sin parámetros que devuelve
un valor del tipo correspondiente al parámetro del método set.
void setMaximumTransparency(float transparency)
Selecciona el valor máximo de transpariencia para este interpolator.
void setMinimumTransparency(float transparency)
Selecciona el valor mínimo de transpariencia para este interpolator.
void setTarget(TransparencyAttributes target)
Selecciona el objeto TransparencyAttributes fuente para este interpolator.
Clases PathInterpolator
Las clases PathInterpolator se diferencian de los otros Interpolator en que pueden
guardar dos o más valores para la interpolación. El corazón de Java 3D proporciona las
clases PathInterpolator para la interpolación de la posición, de la rotación, de la traslación
y de la escala. La fuente de un objeto PathInterpolator es un objeto TransformGroup
que cambia la posición, la orientación, y la escala, según sea apropiado, para sus objetos
hijos.
Los objetos PathInterpolator almacenan un conjunto de valores, o de los nudos, que son
utilizados por parejas para la interpolación. El valor alpha determina que dos valores son
utilizados. Los valores de nudo están en el rango de 0,0 a 1,0 inclusivos, que corresponde al
rango de los valores del objeto alpha. El primer nudo debe tener un valor de 0,0 y el último
nudo debe tener un valor de 1,0. Los nudos restantes se deben grabar en orden creciente
en el objeto PathInterpolator.
Los valores del nudo corresponden con los valores para las variables de los parámetros (por
ejemplo, posición o rotación) usado en la interpolación. Hay un valor de parámetro
especificado para cada valor del nudo. El nudo con el mayor valor igual o menor que el valor
alpha, y el nudo siguiente, serán utilizados. Los nudos se especifican en orden, para que en
los cambios del valor alpha, se utilicen parejas adyacentes.
El panel izquierdo de la Figura 5-11 muestra los valores del nudo para un
PathInterpolator de posición. Para propósitos ilustrativos, solamente se utilizan las
posiciones 2D. El panel central de la figura asocia la posición del objeto visual sobre los
valores alpha, 0,0 a 1,0. El panel derecho de la figura muestra los valores del nudo usados
para los distintos valores alpha de este ejemplo. La combinación de los valores del nudo y
de los parámetros del alpha determinan la animación.
Figura 5-11, la relación entre Nudos y Valores Alpha para un ejemplo de posición 2D.
Usar un objeto PathInterpolator sigue la misma receta que otros objetos Interpolator.
La única diferencia es el número de valores usados para inicializar el objeto
PathInterpolator
Figura 5-13, una escena renderizada por RotPosPathApp mostrando la interpolación de la Rotación y Posición de un ColorCube.
Los puntos rojos muestras los nudos de la aplicación de ejemplo.
PathInterpolator
Esta clase abstracta define la clase base para todos los PathInterpolator. Las subclases tienen
acceso al método para calcular currentInterpolationValue dando el tiempo actual y el valor alpha. El
método también calcula el currentKnotIndex, que se basa en el currentInterpolationValue. El
currentInterpolationValue se calcula interpolandolo linearmente entre una serie de nudos
predefinidos (que usan el valor generado por el objeto alpha especificado).
El primer nudo debe tener un valor de 0,0 y el último nudo debe tener un valor de 1,0. Un nudo
intermedio con el índice k debe tener un valor terminantemente mayor que cualquier nudo con
índice menor que k.
Lista Parcial de Métodos de PathInterpolator
int getArrayLengths()
Este método recupera la longitud del array de nudos.
void setKnot(int index, float knot)
Este métodos selecciona el nudo en el índice especificado para este interpolator.
RotPosPathInterpolator
Extiende: PathInterpolator
Esta clase define un comportamiento que modifica los componentes rotacionales y de translación
de su TransformGroup fuente interpolandolo linearmente entre una serie de pares predefinidos
de nudo/position y de nudo/orientation (que usan el valor generado por el objeto alpha
especificado). La posición y la orientación interpoladas se utilizan para generar una
transformación en el sistema de coordenadas local de este Interpolator.
RotPosPathInterpolator(Alpha alpha, TransformGroup target,
Transform3D axisOfRotPos, float[] knots, Quat4f[] quats,
Point3f[] positions)
Construye un nuevo interpolador que varía la rotación y la traslación del TransformGroup fuente.
Sumario de Métodos de RotPosPathInterpolator
void setAxisOfRotPos(Transform3D axisOfRotPos)
Selecciona el valor del eje de rotación para este interpolator.
void setPosition(int index, Point3f position)
Selecciona la posición del índice especificado para este interpolator.
void setQuat(int index, Quat4f quat)
Selecciona el "quaternion" en el índice especificaco para este interpolator.
void setTarget(TransformGroup target)
Selecciona el TransformGroup fuente para este interpolator.
La Clase Billboard
El término "cartelera" (Billboard) usado en el contexto de los gráficos de ordenador se
refiere a la técnica de rotar automáticamente un objeto visual plano para que esté siempre
de frente hacia el espectador. La motivación original para el comportamiento de cartelera
era permitir el uso de un plano texturado como reemplazo de bajo costo para la geometría
compleja. El comportamiento de cartelera todavía se utiliza comúnmente para esta
aplicación, pero también se utiliza para otros propósitos, tales como mantener la
información textual visible desde cualquier ángulo el ambiente virtual. En Java 3D, la
técnica de cartelera se implementa en una subclase de la clase Behavior, de ahí la frase
"comportamiento de cartelera" usado en la literatura de Java 3D.
La aplicación clásica de ejemplo del comportamiento de cartelera es representar árboles
como texturas 2D. Por supuesto, si las texturas se orientan estáticamente, cuando el
espectador se mueve, la naturaleza 2D de las texturas se revela. Sin embargo, si los
árboles se reorientan de tal forma que siempre están paralelos a su superficie normal,
aparecen como objetos 3D. Esto es especialmente cierto si los árboles están en el fondo de
una escena o vistos en la distancia.
La Figura 5-15 muestra el diagrama del escenario gráfico de los objetos ensamblados en el
Fragmento de Código 5-3.
Figura 5-15, Diagrama del Escenario Gráfico que Usa un Objeto Billboard Creado en el Fragmento de Codigo 5-3.
La Figura 5-16 muestra una imagen renderizada del programa del ejemplo
BillboardApp.java. El Fragmento de Código 5-3 muestra el código para colocar un árbol
animado Billboard en un mundo virtual. El programa de BillboardApp coloca varios árboles
en el paisaje virtual que es por lo que se ven cuatro árboles en la Figura 5-16.
El API Billboard
El ejemplo muestra el uso del valor por defecto del objeto Billboard, que es rotar sobre un
eje. En este modo de valor por defecto, el objeto visual se rotará solamente sobre el eje Y.
Así pues, si los árboles en el programa BillboardApp se ven desde arriba o desde abajo, su
geometría 2D sería revelada.
El modo alternativo es rotar alrededor de un punto. En este modo, la rotación sería
alrededor de un punto tal que el objeto visual se vea siempre orthogonalmente desde
cualquier posición de la vista. Es decir nunca será obvio que el objeto visual es de dos
dimensiones. Una aplicación posible es representar la luna, u otros objetos esféricos
distantes como círculos. Los objetos esféricos aparecen como círculos cuando se ven desde
cualquier ángulo.
Sumario de Constructores de Billboard
Extiende: Behavior
El nodo de comportamiento Billboard funciona sobre el nodo TransformGroup para hacer que
el eje local +z del TransformGroup apunte a la posición del ojo del espectador. Esto se hace sin
importar las transformaciones sobre el nodo TransformGroup especificado en el escenario
gráfico. Los nodos Billboard proporcionan a la mayoría de las ventajas para los objetos
complejos, ásperos-simétricos. Un uso típico puede consistir en un cuadrilátero texturado con la
imagen de un árbol.
Billboard()
Construye un nodo Billboard con los parámetros por defecto: mode = ROTATE_ABOUT_AXIS,
axis =(0,1,0).
Billboard(TransformGroup tg)
Construye un nodo Billboard con los parámetros por defecto que opera sobre el nodo
TransformGroup especificado.
Billboard(TransformGroup tg, int mode, Vector3f axis)
Construye un nodo Billboard con el eje y el modo especificados que opera sobre el nodo
TransformGroup especificado.
Puedes ver el método setMode() para una explicación del parámetro mode.
Billboard(TransformGroup tg, int mode, Point3f point)
Construye un nodo Billboard con el punto de rotación especificado y el modo que opera sobre el
nodo TransformGroup especificado.
Puedes ver el método setMode() para una explicación del parámetro mode.
Lista Parcial de Métodos de Billboard
void setAlignmentAxis(Vector3f axis)
Selecciona el eje de alineamiento.
void setAlignmentAxis(float x, float y, float z)
Selecciona el eje de alineamiento.
void setAlignmentMode(int mode)
Selecciona el modo de alineamiento, donde mode es uno de:
● ROTATE_ABOUT_AXIS - Especifica qué rotación debería sobre el eje especificado.
Incluso aunque que el uso de un objeto LOD es directo, hay un par de potenciales errores
de programación. El error más común es no incluir el objeto Switch fuente en el escenario
gráfico. Fijar el objeto Switch como la fuente del objeto DistanceLOD no lo incluye
automáticamente en el escenario gráfico.
Sin la capacidad ALLOW_SWITCH_WRITE fijada para el objeto Switch fuente, se
generará un error en tiempo de ejecución. También, si no se fijan los límites, o no se hace
correctamente, el objeto LOD no animará el objeto visual. Los límites se especifican
típicamente con un BoundingSphere con un radio lo bastante grande como para incluir el
objeto visual. Igual que con otros objetos behavior, dejar el objeto LOD fuera del
escenario gráfico lo eliminará del mundo virtual sin ningún error o alerta.
Hay un problema con las clases de LOD que no puede ser superada. Igual que con
aplicaciones de Billboard, en las aplicaciones que tienen más de una vista, el objeto LOD
animará correctamente sólo una de ellas.
La Figura 5-18 muestra el diagrama del escenario gráfico creado en el fragmento de código
5-4. Observa que el objeto Switch fuente es hijo de un objeto TransformGroup y es
referido por el objeto DistanceLOD. Ambos lazos son necesarios.
Figura 5-18, Diagrama Parcial del Escenario Gráfico del Programa DistanceLODApp.
La Figura 5-19 muestra dos escenas renderizadas por DistanceLODApp. Cada escena tiene
dos esferas estáticas y una esfera que se mueve. (en la escena derecha, se oculta la esfera
de la izquierda.) La esfera móvil se representa por un objeto DistanceLOD con cuatro
esferas de distinta complejidad geométrica. La esfera pequeña verde es la esfera más
detallada usada por el objeto DistanceLOD en la distancia máxima. La esfera grande roja
es la menos detallada del objeto DistanceLOD en la distancia mínima. Las dos esferas
estáticas se incluyen para propósitos de comparación.
En esta aplicación el objeto DistanceLOD se representa por diversas esferas de color para
ilustrar la conmutación. Cada objeto visual usado por un objeto LOD debería parecer tan
normal como sea apropiado.
Se utiliza un PositionInterpolator para mover el objeto DistanceLOD hacia adelante y
hacia atrás en la escena. Cuanto más lejos de la vista se mueva el objeto DistanceLOD,
más cambiaran los objetos visuales. Sin el cambio del color en esta aplicación, no sería fácil
decir cuándo ocurre la conmutación.
El API DistanceLOD
En Java 3D, la clase LOD proporciona las funciones básicas para todas las aplicaciones
LOD. La clase DistanceLOD extiende la clase LOD para agregar cálculos 'Switch según la
distancia al espectador '. Varios métodos de la clase LOD son necesarios para el uso de un
objeto DistanceLOD.
Sumario de Constructores de DistanceLOD
Esta clase define un nodo de comportamiento basado en la distancia que funciona sobre un nodo
Switch para seleccionar uno de los hijos de ese nodo Switch basándose en la distancia de este
nodo LOD hasta el espectador. Un array de n elementos que aumenta monotónicamente según
la distancia especificada, tal que distances[0 ] está asociada al nivel más alto de detalle y
distances[n-1 ] está asociado al nivel más bajo de detalle. De acuerdo con la distancia real
desde el espectador a este nodo DistanceLOD, estos valores de la distancia de n [ 0, n-1 ]
seleccionan entre de los niveles n+1 de detalle [ 0, n ]. Si d es la distancia del espectador al
nodo de LOD, entonces la ecuación para determinar el nivel del detalle (hijo del nodo Switch)
seleccionado es:
0, if d <= distances[0]
i, if distances[i-1] < d <= distances[i]
n, if d > distances[n-1]
Observa que tanto la posición como el array de distancias están especificados en el sistema de
coordenadas local de este nodo.
DistanceLOD()
Construye e inicializa un nodo DistanceLOD con los valores por defecto.
DistanceLOD(float[] distances)
Construye e inicializa un nodo DistanceLOD con el array de distancias especificado y la posición
por defecto de (0,0,0).
DistanceLOD(float[] distances, Point3f position)
Construye e inicializa un nodo DistanceLOD con el array de distancias y la posición
especificados.
Sumario de Métodos de DistanceLOD
int numDistances()
Devuelve un contador del número de parámetros de distancia del LOD.
void setDistance(int whichDistance, double distance)
Selecciona una distancia de umbral particular.
void setPosition(Point3f position)
Selecciona la posición de este nodo LOD.
Un nodo hoja LOD es una clase de comportamiento abstracto que opera sobre una lista de
nodos Switch para seleccionar uno de los hijos de los nodos Switch. La clase LOD se extiende
para implentar distintos crierios de selección.
LOD()
Construye e inicializa un nodo LOD.
Sumario de Métodos de LOD
void addSwitch(Switch switchNode)
Añade el switch especificado a la lista de switches de este nodo LOD.
java.util.Enumeration getAllSwitches()
Devuelve el objeto enumeration de todos los switches.
void insertSwitch(Switch switchNode, int index)
Inserta el nodo switch especificado en el índice especificado.
int numSwitches()
Devuelve un contador de switches de este LOD.
void removeSwitch(int index)
Elimina el nodo switch del índice especificado.
void setSwitch(Switch switchNode, int index)
Reemplaza el nodo switch especificado con el nodo switch proporcionado.
Morph
Las clases Interpolator modifican varios atributos visuales del mundo virtual. Sin
embargo, no hay un Interpolator para cambiar la geometría de un objeto visual. Esto es
exactamente lo que hace la clase Morph. Un objeto Morph crea la geometría para un
objeto visual con la interpolación de un conjunto de objetos GeometryArray. De esta
forma la clase Morph es como las clases Interpolator. Pero, Morph no es un
Interpolator; no es ni siquiera una extensión de la clase Behavior. La clase Morph
extiende la clase Node.
El Capítulo 4 explica que todos los cambios en una escena viva o los objetos en un gráfico
vivo de la escena se hacen normalmente con el método processStimulus de los objetos
Behavior. Puesto que no hay una clase específica de comportamiento para el uso con un
objeto Morph, se debe escribir un clase personalizada para aplicarla con Morph. Si la clase
Morph se considera una clase de animación o de interacción depende del estímulo para el
comportamiento que diriga el objeto Morph.
Los objetos Morph se pueden utilizar para convertir las pirámides en cubos, gatos en
perros, o cambiar cualquier geometría en cualquier otra geometría. La única limitación es
que los objetos de la geometría usados para la interpolación sean de la misma clase, una
subclase de GeometryArray, y con el mismo número de vértices. La restricción en el
número de vértices no es un límite como parece a primera vista. En el Java 3D se distibuye
un programa de ejemplo que convierte una pirámide en un cubo, Pyramid2Cube.java.
Los objetos Morph también se pueden utilizar para animar un objeto visual (por ejemplo.,
hacer que una persona corra). En el API Java 3D también puedes encontrar un programa
que anima una mano, Morphing.java. Un tercer ejemplo de Morph que hace caminar a una
figura de alambre es el tema de la sección siguiente.
Usar un Objeto Morph
Entender el uso del objeto de Morph requiere saber cómo funcionan los objetos Morph.
Afortunadamente, un objeto Morph no es muy complejo. Un objeto Morph graba un array
de objetos GeometryArray. Podemos recordar del Capítulo 2 que GeometryArray es la
superclase de TriangleArray, de QuadStripArray, de IndexedLineStripArray, y de
TriangleFanArray (entre otros muchos).
El GeometryArray individual define completamente una especificación geométrica
completa para el objeto visual incluyendo color, superficies normales, y coordenadas de la
textura. Los objetos GeometryArray se pueden imaginar como marcos de una animación,
o más correctamente, como las constantes en una ecuación para crear un nuevo objeto
GeometryArray.
Además del array de objetos GeometryArray, un objeto Morph tiene un array de valores
del peso- éstas son las variables en la ecuación. Usando el GeometryArray y los pesos, un
objeto Morph construye un nuevo objeto geometría usando el promedio de las
coordenadas, el color, las superficies normales, y la información de coordenadas de la
textura de los objetos de GeometryArray. Modificar los pesos cambia la geometría
resultante.
Todo lo que se requiere para utilizar un objeto Morph es crear el array de objetos
GeometryArray y fijar los valores de carga. Abajo podemos ver una receta para usar un
objeto Morph.
Como se puede ver, usar un objeto Morph no es duro; sin embargo, estos pasos de la
receta no proporcionan ni animación ni interacción. La animación o la interacción se
proporciona a través de un objeto Behavior. Por lo tanto, usar un objeto Morph significa
generalmente escribir una clase Behavior.
Un objeto Morph se puede referir a un paquete de aspecto. El manojo de aspecto se utiliza
con el objeto GeometryArray creado por el objeto Morph. Debemos tener cuidado ya que
el objeto Morph crea siempre un objeto GeometryArray con colores-por-vertice. Por
consiguiente, se ignorarán las especificaciones de ColoringAttributes y de color difuso de
Material. Puedes ver el Capítulo 6 para más información sobre colorear y sombrear objetos
visuales.
Incluso tan simple como es el uso de Morph, hay un riesgo potencial de programación
asociado (no mencionado todavía). Pesos que no suman 1,0 resultan en un error en tiempo
de ejecución. Ya hemos mencionado la limitación del aspecto.
Ejemplo de Aplicación Morph: Walking
Esta aplicación de Morph utiliza un objeto Behavior personalizado para proporcionar la
animación. El primer paso de la receta es escribir el comportamiento personalizado.
En un comportamiento usado para animar un objeto Morph, el método processStimulus
cambia los pesos del objeto Morph. Este proceso es solo tan complejo como necesario para
alcanzar el efecto deseado de la animación o de la interacción. En este programa, el método
processStimulus fija los valores de los pesos basándose en el valor de un objeto alpha. Esto
sucede en cada marco de renderizado donde la condición del disparador se ha cumplido. El
Fragmento de Código 5-5 demuestra el código para el comportamiento de personalizado del
programa MorphApp.java. En este código, solamente el método processStimulus es
interesante.
Las figuras negras pueden parecer dos marcos, cada uno repetido una vez, pero en
realidad, son cuatro marcos únicos. La diferencia está en el orden que se especifican los
vértcies.
El Fragmento de Código 5-6 presenta un extracto del método createSceneGraph. En este
método se crean un objeto MorphBehavior, el objeto alpha, y un objeto Morph y se
ensamblan en el escenario gráfico. Se crean los objetos del marco GeometryArray usando
algunos otros métodos (no mostrados aquí). El código completo lo tienes en MorphApp.java.
Es interesante observar que son posibles varias animaciones con los marcos creados para
esta aplicación del ejemplo con diversas clases de comportamiento. La Figura 5-22 muestra
una escena renderizada por Morph3App.
En este programa, otras tres clases de comportamiento crean animaciones basadas en
alguno, o todos los objetos GeometryArray de MorphApp. Se llaman (de izquierda a
derecha en la figura) "In Place", "Tango", y "Broken". No todas las animaciones son buenas.
Por supuesto, para apreciar de verdad las animaciones, tenemos que ejecutar el programa.
Figura 5-22, una escena renderizada desde Morph3App mostrando las animaciones de tres clases de comportamientos
alternativas (no todas buenas).
El API Morph
Con la simplicidad de uso de la receta anterior, podríamos esperar un API sencillo -- y así
es.
Sumario de Constructores de Morph
Extiende: Node
Los objetos Morph crean un nuevo objeto GeometryArray usando el promedio de peso de los
objetos GeometryArray. Si se proporciona un objeto de apariencia, se utiliza con la geometría
resultante. Los pesos se especifican con el método setWeights. Un objeto Morph se utiliza
generalmente con un objeto Behavior personalizado para ajustar los pesos en el tiempo de
ejecución para proporcionar la animación (o la interacción).
Morph(GeometryArray[] geometryArrays)
Construye e inicializa un objeto Morph con el array de objetos GeometryArray especificado y un
objeto Appearance null.
Morph(GeometryArray[] geometryArrays, Appearance appearance)
Construye e inicializa un objeto Morph con el array de objetos GeometryArray especificado y el
objeto de apariencia especificado.
Lista Parcial de Métodos de Morph
void setAppearance(Appearance appearance)
Selecciona el componente de apariencia de este nodo Morph.
void setGeometryArrays(GeometryArray[] geometryArrays)
Selecciona el componente geometryArrays de este nodo Morph.
void setWeights(double[] weights)
Selecciona el vector de pesos de ese nodo Morph.
Sumario de Capacidades de Morph
ALLOW_APPEARANCE_READ | WRITE
Especfica que el nodo permite el acceso de lectura/escritura a su información de apariencia.
ALLOW_GEOMETRY_ARRAY_READ | WRITE
Especfica que el nodo permite el acceso de lectura/escritura a su información de geometría.
ALLOW_WEIGHTS_READ | WRITE
Especfica que el nodo permite el acceso de lectura/escritura a su vector de pesos.
@ Ozito Anterior :: Home :: Siguiente
@ Ozito Anterior :: Home :: Siguiente
Iluminación en Java 3D
Este módulo presenta las técnicas para proporcionar detalles de los objetos visuales a
través de sombras y texturas. Esta página explica el modelo de iluminación y cómo utilizar
luces en Java 3D para conseguir sombras.
Java 3D sombrea los objetos visuales basándose en la combinación de sus características
materiales y en las luces del universo virtual. El sombreado resulta de aplicar un modelo
de iluminación a un objeto visual en presencia de fuentes de luz. La siguiente sección da
una descripción del modelo de iluminación usado en el renderizador de Java 3D y cómo la
luz interactúa con las características materiales para proporcionar sombreado. Cada una
de las siguientes secciones explica las características relevantes del API Java 3D para el
modelo de iluminación.
Sombreado en Java 3D
Sombrear objetos visuales en Java 3D depende de muchos factores. Esta sección
proporciona una descripción abreviada del modelo de iluminación de Java 3D, del modelo
de color, y del modelo de sombreado. La especificación del API Java 3D presenta una
información más detallada sobre el modelo de iluminación de Java 3D. Como la mayor
parte de la iluminación de Java 3D y del modelo de sombreado se basa en OpenGL, se
puede encontrar más información en páginas sobre OpenGL.
Modelo de Iluminación
En el mundo real, los colores que percibimos son una combinación de las características
físicas del objeto, de las características de las fuentes de luz, de las posiciones relativas de
los objetos a las fuentes de luz, y del ángulo desde el cual se ve el objeto. Java 3D utiliza
un modelo de iluminación para aproximar la física del mundo real. El resto de esta sección
explica el modelo de iluminación de Java 3D en términos generales. La sección E.2 de la
especificación del API Java 3D presenta las ecuaciones matemáticas para el modelo de
iluminación Java 3D.
La ecuación del modelo de iluminación depende de tres vectores: la superficie normal (n),
la dirección de la luz (l), y la dirección al ojo del espectador (e) además de las
características materiales del objeto y de las características de la luz. La Figura 6-1
muestra los tres vectores para dos vértices de una superficie esférica. Los vectores para
cada vértice pueden tener distintas direcciones dependiendo de específicidades de la
escena. Cuando los vectores de la luz y del ojo varían, se cálculan en tiempo de ejecución.
Por lo tanto, cada vértice de la esfera potencialmente se renderiza como una sombra
diferente.
Figura 6-1, Vectores de Luz, Superficie Normal y Ojo del espectador usados para vértices sombreados.
El modelo de iluminación incorpora tres tipos de reflexiones de luz del mundo real:
ambiente, difuso, y especular. La reflexión ambiente resulta de la luz ambiente, luz
constante de bajo nivel, en una escena. La reflexión difusa es la reflexión normal de una
fuente de luz desde un objeto visual. Las reflexiones especulares son las reflexiones
sobreiluminadas de una fuente de luz sobre un objeto, que ocurren en ciertas situaciones.
La Figura 6-2 muestra una esfera y un plano renderizados por Java 3D. Los tres tipos de
reflexión se pueden ver en la esfera de la Figura 6-2. La parte más oscura de la esfera
exhibe sólo la reflexión ambiente. El centro de la esfera está iluminado por la luz difusa y
ambiente. Con una esfera azul y una luz blanca, la reflexión difusa es azul. La parte más
brillante de la esfera es el resultado de la reflexión especular con reflexiones ambiente y
difusa.
Si cada vértice de cada objeto visual en una escena requiere un vector de luz, un vector
del ojo, y el cálculo de la sombra, una porción significativa del cálculo de representación se
utiliza en los vértices sombreados. La cantidad de cálculo puede reducirse si el vector de
luz, o el vector del ojo, o ambos vectores son constantes. El vector de luz es constante
cuando usa una luz direccional.. El vector del ojo es constante por defecto, aunque
podemos especificar un vector variable del ojo usando un método del objeto View.
Modelo de Color
El modelo del color no está basado en la física. Java 3D modela el color de las luces y los
materiales como una combinación de rojo, verde, y azul. El color blanco, como el color de
la luz o del material, es la combinación de los tres componentes con la intensidad máxima.
Cada luz produce un solo color de luz especificado por un tuple RGB. El modelo de
iluminación se aplica a cada uno de los componentes del color RGB. Por ejemplo, una bola
roja en presencia de una luz azul no será visible puesto que la luz azul no se refleja desde
un objeto rojo. En realidad, el color es una combinación de muchas longitudes de onda de
la luz, no solo tres. El modelo de color RGB representa muchos colores, pero no todos.
En Java 3D, la porción de una escena donde los objetos visuales son iluminados por una
fuente de luz determinada se llama la región de influencia de ese objeto de luz. La región
de influencia más simple para una fuente de luz usa un objeto Bounds y el método
setInfluencingBounds() de Light. Cuando un objeto fuente de luz con límites de influencia
intersecciona con los límites de un objeto visual, se utiliza la luz para sombrear todo el
objeto. Los límites de influencian de una luz determinan qué objetos iluminar, no qué
porciones de objetos se iluminan.
Modelo de Sombreado
El modelo de iluminación sombrea todos los vértice de un objeto visual por cada luz de
influencia. La sombra de un vértice es la suma de las sombras proporcionadas por cada
fuente de luz para la vértice. El resto de un objeto visual se sombrea basándose en la
sombra de los vértices. El modelo de sombra de un objeto visual, especificado como
atributo Appearance NodeComponent, determina cómo se hace el sombreado para el
resto del objeto visual.
El ColoringAttributes NodeComponent especifica el modelo de sombra para los objetos
visuales donde el modelo de sombra se especifica como uno de SHADE_GOURAUD,
SHADE_FLAT, FASTEST, NICEST. Debemos tener cuidado ya que el color de un objeto
ColoringAttributes nunca se utiliza en el sombreado.
En el sombrado Gouraud, cada pixel se sombrea con un valor derivado de la interpolación
trilinear del valor de la sombra de cada vértice del polígono que lo encierra. En el
sombreado plano, todos los pixeles de un polígono se asignan el valor de la sombra a
partir de un vértice del polígono. La Figura 6-3 muestra una esfera sombreada plana y una
esfera sombrada Gouraud. La ventaja del sombreado plano es la velocidad en la
representación del software. El sombreado de Gouraud tiene la ventaja de la apariencia
visual.
Un último punto antes de ir a un ejemplo; los objetos fuentes de luz no son objetos
visuales. Incluso si una fuente de luz se situa dentro de la vista, no será renderizada.
Los errores con fuentes de luz pueden no ser fáciles de encontrar. No hay ningún aviso de
que dejamos sin luz un escenario gráfico. Ni hay ninguna alerta por no fijar los límites de
influencia de una fuente de luz. En cualquiera de estos casos, el objeto de luz no tendrá
ninguna influencia sobre los objetos visuales en el escenario gráfico. Un objeto visual
especificado correctamente para sombreado (es decir, uno con un objeto Material) en un
escenario gráfico vivo pero fuera de los límites de influencia de todos los objetos fuente de
luz se renderizará a negro.
Es posible especificar correctamente una escena en la cual un objeto visual con las
características materiales influenciadas por un objeto de luz y que se renderice a negro. La
orientación relativa de la luz, el objeto visual, y la dirección de la visión entran en juego en
el renderizado.
1. Appearance createAppearance() {
2. Appearance appear = new Appearance();
3. Material material = new Material();
4. appear.setMaterial(material);
5.
6. return appear;
7. }
8.
9. BranchGroup createScene (){
10. BranchGroup scene = new BranchGroup();
11.
12. scene.addChild(new Sphere(0.5f, Sphere.GENERATE_NORMALS,
13. createAppearance()));
14.
15. AmbientLight lightA = new AmbientLight();
16. lightA.setInfluencingBounds(new BoundingSphere());
17. scene.addChild(lightA);
18.
19. return scene;
20. }
Fragmento de Código 6-1, Crear un Escena con un Esfera Iluminada.
Las líneas 4 y 5 del Fragmento de código 6-1 podrían ser reemplazadas por la siguiente
línea que crea y usa un objeto Material anónimo
Appear.setMaterial(new Material());
Los objetos Material son completamente personalizables con los parámetros de su
constructor, simplificando el uso de objetos Material anónimos. Por el contrario, crear un
objeto Light anónimo hace mucho más díficil la adicción de límites de influencia. Debemos
tener en cuenta que el nombramiento del objeto Material puede hacer el objeto sea más
fácil de compartir entre varios manojos del aspecto, dando como resultado un
funcionamiento mejor.
El SimpleUniverse proporciona los objetos VirtualUniverse y Locale junto con el la
rama de vista gráfica para el diagrama de escenario gráfico mostrado en la Figura 6-6. Sin
una transformación, el objeto Sphere y el objeto BoundingSphere estarán centrados en
el origen, y se interseccionarán. El objeto Sphere se sombrea por la fuente
AmbientLight. La Figura 6-7 muestra la imagen que resulta con un fondo blanco. La
especificación del fondo no se muestra en el código.
La esfera de la Figura 6-7 es de color gris uniforme, que es el valor por defecto de la
propiedad ambiente del material.
Figura 6-7, Una esfera con luz Ambiente.
La Figura 6-7 muestra que las escenas iluminadas unicamente con luz ambiente son
opacas. Como la iluminación ambiente es uniforme, produce la sombra uniforme. La luz
ambiente está pensada para llenar de luz una escena donde otras fuentes no iluminan. La
adición de una fuente DirectionalLight hará esta escena más interesante.
Insertando el Fragmento de código 6-2 en el Fragmento de código 6-1 se añade un
DirectionalLight a la rama de contenido gráfico de la escena. Una vez más los valores
por defecto se utilizan para la fuente de luz, y se utiliza un BoundingSphere por defecto
para la región de influencia. La Figura 6-8 muestra el diagrama del escenario gráfico que
resulta sin los objetos proporcionados por el SimpleUniverse.
Figura 6-8, Diagrama Abreviado del ejemplo de los fragmentos de código 6-1 y 6-2.
La Figura 6-9 muestra la imagen producida por la combinación de los dos fragmentos del
código. La influencia del objeto AmbientLight apenas se puede ver con la fuente
DirectionalLight. Obviamente, es necesaria la personalización de los requisitos
particulares de los objetos de luz y/o las características materiales del objeto visual para
crear escenas interesantes.
Figura 6-9, Una Esfera con fuentes de Luz ambiente y direccional.
Si dependen o no, los objetos de la fuente de luz del escenario gráfico en la Figura 6-10
influencian el sombreado (luz) del objeto visual iluminado si los límites del objeto visual
interseccionan con la región de influencia de los objetos de luz. Especificar la región de
influencia de una luz como un sólo bounds podría no funcionar para todas las
aplicaciones.
Clase Light
El API Java 3D proporciona cuatro clases para luces. Todas se derivan de la clase Light. La
Figura 6-11 muestra la jerarquía de clases de Java 3D relacionada con las luces. Light,
una clase abstracta, proporciona los métodos y las constantes de capacidades asociadas
para manipular el estado, color, y los límites de un objeto Light. El estado de la luz es un
boleano que activa y desactiva la luz.
Figura 6-11, El Árbol de Clases del API Java 3D con las clases Light
El siguiente bloque de referencia lista los métodos y las constantes de la clase Light.
Debemos recordar que los límites seleccionados con setInfluencingBounds() activan una luz
cuando el objeto bounds referenciado intersecciona con la vista.
Lista Parcial de Métodos de la Clase Light
Light es una clase abstracta que contiene variables de ejemplar comunes a todas las luces.
void setColor(Color3f color)
Selecciona el color actual de la luz.
void setEnable(boolean state)
Activa y desactiva la luz.
void setInfluencingBounds(Bounds bounds)
Selecciona los límites de influencia de la luz.
Sumario de Capacidades de la Clase Light
ALLOW_INFLUENCING_BOUNDS_READ | WRITE
ALLOW_STATE_READ | WRITE
ALLOW_COLOR_READ | WRITE.
Luz Ambiente
Los objetos de luz ambiente proporcionan luz de la misma intensidad en todas las
localizaciones y en todas las direcciones. Los objetos de luz ambiente modelan la luz
reflejada desde otros objetos visuales. Si miramos la superficie inferior de nuestro
escritorio, veremos la parte inferior del escritorio aunque ninguna fuente de luz esté dando
directamente en esa superficie (a menos que tengamos una lámpara bajo el escritorio). La
luz que brillaba hacia arriba en el fondo del escritorio se reflejó en el suelo y en otros
objetos. En ambientes naturales con muchos objetos, la luz se refleja desde muchos
objetos para proporcionar la luz ambiente. La clase AmbientLight de Java 3D simula este
efecto.
El siguiente bloque de referencia enumera los constructores de la clase AmbientLight. La
clase abstracta Light proporciona los métodos y las capacidades para esta clase
(enumerada en el bloque de referencia anterior).
Sumario de Constructores de la clase AmbientLight
Un objeto fuente de luz ambiente proporciona la misma intensidad de luz en todas las
localización y direcciones. Modela la compleja reflexión inter-objetos de la luz presente en
escenas naturales.
AmbientLight()
Construye e inicializa un objeto fuente de luz ambiente usando los siguientes valores por
defecto:
● lightOn true
● color (1, 1, 1)
AmbientLight(Color3f color)
Construye e inicializa una luz ambiente usando los parámetros especificados.
AmbientLight(boolean lightOn, Color3f color)
Construye e inicializa una luz ambiente usando los parámetros especificados.
Mientras que podría ser natural pensar que una fuente de luz ambiente se puede aplicar
globalmente, esto no es necesariamente cierto en un programa Java 3D. La influencia de
la fuente AmbientLight está controlada por sus límites igual que otras fuentes de luz Java
3D. Se pueden utilizar varios objeto fuente AmbientLight en un programa de Java 3D. No
hay límite en el número de los objetos fuentes AmbientLight que se pueden utilizar.
Según lo mencionado en secciones anteriores, la sombra de un vértice es el resultado de
las fuentes de luz, de las características materiales del objeto visual, y de su geometría
relativa (distancia y orientación). Para las reflexiones ambiente, la geometría no es un
factor. La propiedad ambiente del material sólo se utiliza para calcular la reflexión
ambiente. El modelo de iluminación calcula la reflexión ambiente de la luz como el
producto la intensidad del AmbientLight y la propiedad ambiente del material del objeto
visual.
Luz Direccional
Una fuente DirectionalLight aproxima fuentes de luz muy distantes tales como el sol. Al
contratrio que las fuentes AmbientLight, las fuentes DirectionalLight proporcionan una
sola dirección al brillo de luz. Para los objetos iluminados con una fuente
DirectionalLight, el vector de luz es constante.
La Figura 6-12 muestra dos vértices de la misma esfera que están siendo iluminados por
una fuente DirectionalLight. El vector de luz es igual para estos dos y para todos los
vértices. Compara La Figura 6-12 con la Figura 6-1 para ver la diferencia. Puesto que
todos los vectores de luz de una fuente DirectionalLight son paralelos, la luz no se
atenúa. En otras palabras, la intensidad de una fuente DirectionalLight no varía con la
distancia al objeto visual y la fuente DirectionalLight.
Los objetos DirectionalLight modelan fuentes de luz muy distantes teniendo una dirección del
vector de luz constante
DirectionalLight()
Construye e inicializa una fuente direccional usando los siguientes valores por defecto:
● lightOn true
● color (1, 1, 1)
●direction (0, 0, -1)
DirectionalLight(Color3f color, Vector3f direction)
Construye e inicializa una luz direccional con el color y la dirección especificados. Por defecto el
estado es true (on).
DirectionalLight(boolean lightOn, Color3f color, Vector3f direction)
Construye e inicializa una luz direccional con el estado, el color y la dirección especificados.
Sumario de Métodos de la Clase DirectionalLight
void setDirection(Vector3f direction)
Selecciona la dirección de la luz.
void setDirection(float x, float y, float z)
Selecciona la dirección de la luz.
Sumario de Capacidades de la Clase DirectionalLight
Además de las Capacidades heredadas de la clase Light, los objetos DirectionalLight tienen la
siguiente capacidad:
ALLOW_DIRECTION_READ | WRITE
Los siguientes bloques de referencia listan los constructores y los métosos de PointLight,
respectivamente.
Sumario de Constructores de la Clase PointLight
El objeto PointLight especifica una fuente de luz atenuada en el espacio que irradia la luz
igualmente en todas las direcciones desde la fuente de luz.
PointLight()
Construye e inicializa una fuente de punto de luz usando los siguientes valores por defecto:
● lightOn true
● color (1, 1, 1)
● position (0, 0, 0)
●attenuation (1, 0, 0)
PointLight(Color3f color, Point3f position, Point3f attenuation)
Construye e inicializa un punto de luz. Por defecto la luz está activa.
PointLight(boolean lightOn, Color3f color, Point3f position, Point3f
attenuation)
Construye e inicializa un punto de luz.
Sumario de Métodos de la Clase PointLight
void setAttenuation(Point3f attenuation)
Selecciona los valores de atenuación actuales de la luz y los sitúa en el parámetro especificado. Los tres
valores especificados en el objeto Point3f especifican los coeficientes constante, linear, y cuadrático,
respectivamente.
1
atenuación = --------------------------------------------------------------------
constate+linear+cuadrático*distancia2
donde distancia es la medida desde la fuente de luz al vértice que está siendo sombreado.
void setAttenuation(float constant, float linear, float quadratic)
Selecciona los valores de atenuación actuales de la luz y los sitúa en el parámetro especificado. Ver la
ecuación anterior.
void setPosition(Point3f position)
Selecciona la posición de la Luz.
void setPosition(float x, float y, float z)
Selecciona la posición de la Luz.
Sumario de Capacidades de la Clase PointLight
Además de las capacidades heredadas de la clase Light, los objetos PointLight tienen las
siguientes capacidades.
ALLOW_POSITION_READ | WRITE
ALLOW_ATTENUATION_READ | WRITE
SpotLight
SpotLight es una subclase de PointLight. La clase SpotLight agrega dirección y
concentración a los parámetros de posición y de atenuación de PointLight. Los objetos
SpotLight crean manualmente modelos de fuentes de luz artificiales como flashes ,
lámparas, y otras fuentes con reflectores y/o lentes.
La intensidad de la luz producida por una fuente SpotLight produce la luz dentro de un
ángulo especificado desde la dirección de la luz. Si el vértice exterior se sale del ángulo de
la extensión de la luz, entonces no se produce ninguna luz. Por dentro del ángulo de
extensión, la intensidad varía mediante el ángulo y la distancia al vértice. Una vez más
una ecuación cuadrática modela la atenuación debido a la distancia. El parámetro
concentración y una ecuación diferente gobiernan la variación de la intensidad debido al
ángulo. Las ecuaciones que gobiernan estos lazos se encuentran en la sección E.2 de la
especificación del API Java 3D. La Figura 6-14 ilustra en 2D cómo la intensidad de luz
varía desde una fuente PointLight en 3D.
Figura 6-14, La intensidad de Luz varía con la Distancia y la Orientación desde una fuente PointLight.
El ángulo de extensión de un objeto SpotLight podría hacer que la luz iluminara parte de
un objeto visual. Esta es la única luz capaz de iluminar sólo una parte de un objeto visual.
Los siguientes bloques de referencia listan los constructores y métodos de PointLight,
respectivamente.
Sumario de Constructores de la Clase SpotLight
SpotLight es una suclase de PointLight con los atributos de dirección, ángulo de extensión y
concentración.
SpotLight()
Construye e inicializa una fuente de luz usando los siguientes valores por defecto:
● lightOn true
● color (1, 1, 1)
● position (0, 0, 0)
● attenuation (1, 0, 0)
● direction (0, 0, -1)
● spreadAngle PI (180 degrees)
●concentration 0.0
SpotLight(Color3f color, Point3f position, Point3f attenuation, Vector3f
direction, float spreadAngle, float concentration)
Construye e inicializa un punto de luz. Puedes ver el sumario de métodos de PointLight para
más infromación sobre la atenuación. Por defecto la luz está activa.
SpotLight(boolean lightOn, Color3f color, Point3f position, Point3f
attenuation, Vector3f direction, float spreadAngle, float concentration)
Construye e inicializa un punto de luz. Puedes ver el sumario de métodos de PointLight para
más infromación sobre la atenuación.
Sumario de Métodos de la Clase SpotLight
Además de los métodos listados anteriormente para PointLight, la clase SpotLight tiene los
siguientes métodos:
void setConcentration(float concentration)
Selecciona la concentración del punto de luz.
void setDirection(float x, float y, float z)
Selecciona la dirección de la luz.
void setDirection(Vector3f direction)
Selecciona la dirección de la luz.
void setSpreadAngle(float spreadAngle)
Selecciona el ángulo de exposición de la luz.
Sumario de Capacidades de la Clase SpotLight
Además de las capacidades heredadas de la clase Light, los objetos SpotLight tienen las
siguientes capacidades:
ALLOW_SPREAD_ANGLE_READ | WRITE
ALLOW_CONCENTRATION_READ | WRITE
ALLOW_DIRECTION_READ | WRITE
La Figura 6-15 muestra una sola esfera blanca iluminada por dos fuentes de luz
direccionales, una roja y una azul. Aunque puede sorprendernos, la sombra que resulta es
magenta. Mezclar rojo y azul da lugar a la púrpura, que es el resultado en el sistema de
color sustractivo. Mezclar luces rojas y azules resulta en magenta, los resultados de un
sistema de color aditivo.
En ausencia de luz, la esfera es negra. Si la única fuente de luz es roja, entonces la esfera
aparecerá roja, o algo sombreada en rojo. Con la adicción de una fuente de luz azul, sólo
son posibles el rojo, el azul y las mezclas de estos dos.
Figura 6-17, Geometría de Planos Iluminados con Fuentes de Luces Direccionales y de Punto
La Figura 6-18 muestra las imágenes renderizadas a partir de versiones distintas del
programa ConcentrationApp.java. Un plano es iluminado por nueve puntos de luz. Los
valores del ángulo y de la concentración de la extensión para las luces de los puntos
varían con la posición. El ángulo de la extensión varía por cada fila con valores de .1, .3 y
.5 (radianes) desde la fila superior a la inferior, respectivamente. La concentración varía
por cada columna con valores de 1,0, 50,0, y 100,0 desde la columna de la izquierda a la
de la derecha, respectivamente.
Los valores de concentración no tienen ningún efecto para la fila superior, el ángulo de la
extensión es el único factor. En la fila inferior, la concentración tiene un efecto para cada
uno de los ángulos de la extensión. El azul en las imágenes es el color difuso del material.
Figura 6-18, Un Plano Iluminado por SpotLights con diferentes Concentraciones y Ángulos de Extensión.
Objetos Material
Las características materiales de un objeto visual se especifican en el objeto Material de
un manojo de aspecto. Material es una subclase de NodeComponent. La Figura 6-19
muestra la jerarquía de clases del API Java 3D para Material.
Superficies Normales
Según lo mencionado en secciones anteriores, las superficies normales son necesarias
para sombrear los objetos visuales. Al crear objetos visuales usando clases Geometry,
utilizamos uno de los métodos setNormal() para especificar los vectores de los vértices.
El NormalGenerator incluido con los utilidades de Java 3D genera superficies normales al
especificar los objetos visuales que usan objetos GeometryInfo. Para generar superficies
normales, ponemos nuestro objeto visual Geometry y llamamos a
NormalGenerator.generateNormals().
Los primitivos geométricos generan sus propias superficies normalea cuando son
especificados.
No importa cómo se especifican (o se generan) las superficies normales, sólo se especifica
una superficie normal por vértice. Esto conduce a algunos problemas interesantes. Por
ejemplo, cuando las dos superficies normales de polígonos son visibles, la normal es
solamente correcta para una de las superficies normales. El resultado es que las caras
posteriores sean renderizadas (si se renderizan) solamente con las características
materiales de ambiente. Las reflexiones difusa y especular requieren la especificación
normal apropiada.
Este problema común se soluciona especificando caras normales detrás al contrario que
las superficies normales delanteras. Utilizamos el método setBackFaceNormalFlip() de un
objeto PolygonAttributes para este propósito.
La Figura 6-21 muestra dos imágenes sombreadas de una tira doblada. La imagen de la
izquierda fue renderizada desde la superficie frontal, y la derecha muestra las superficies
normales traseras.
Cuando un vértice es compartido por las superficies normales o varian las orientaciones,
tener solamente una superficie normal por vértice puede dar lugar a problemas.
Consideremos los ejemplos ilustrados en la Figura 6-22. La geometría ilustrada en la cara
del lado izquierdo de la Figura 6-22 muestra la sección transversal de una superficie donde
cada polígono se orienta a un ángulo de 90° de sus vecinos. Si se selecciona la superficie
normal como el normal actual para una superficie, es muy incorrecto para su vecino. Si las
superficies normales se especifican según lo mostrado, entonces la superficie estará
sombreada constantemente entre los vértices con superficies paralelas. Un problema
similar ocurre con la geometría del cubo mostrada en la cara derecha en la Figura 6-22. La
solución a ambos problemas es aumentar el número de vértices para aumentar el número
de superficies normales. Esto, por supuesto, aumenta el uso de la memoria y el tiempo de
la renderización.
La escena consiste en una lámpara y algunos objetos visuales en una mesa. La lámpara
tiene una sombra, por eso no todos los objetos, ni toda la mesa, debe ser iluminada por la
lámpara. El interior (pero no el exterior) de la lámpara también se debe iluminar (en este
ejemplo, la sombra de la lámpara es completamente opaca). Sabemos que Java 3D no
proporcionará la obstrucción por nosotros. Usando sólo un volumen de limitación, la
influencia de la luz puede ser controlada, pero podría ser muy difícil, especialmente si se
iluminan y apagan objetos que están uno cerca del otro, o se mueven.
Especificar un ámbito de limitaciones para la luz nos permite controlar limitaciones
complejas de la influencia más fácilmente. La única consideración es mantener los objetos
iluminados y apagados en partes separadas del escenario gráfico. Nuestro pensamiento
inicial pudo ser comenzar a construir el escenario gráfico BranchGroups para los objetos
iluminados y apagados, pero éso no es a menudo necesario ni recomendado para la
mayoría de las aplicaciones.
Figura 6-24, Dos posibles Escenarios Gráficos para el Ejemplo de Ámbito de Luz.
Tampoco se representan en ningún diagrama del escenario gráfico las tres fuentes de luz
adicionales: dos fuentes de luz direccionales y una fuente de luz ambiente. Éstas son
necesarias para simular la luz de una escena natural.
El siguiente bloque de referencia muestra los métodos de la clase Light usados para
especificar limitaciones del scoping y el uso de los objetos BoundingLeaf para especificar
los límites de influencia.
Lista Parcial de Métodos de la Clases Light
Otra ventaja de usar alcances para limitar la influencia de una luz: puede reducir el tiempo
de renderizado. Calcular la intersección de los límites para un objeto visual con los límites
que influencian de una luz es más complejo que determinar el alcance de una luz.
Debemos tener cuidado con que ni el uso de los límites de influencia ni los alcances
limitará la influencia de una luz a una parte de un objeto visual.
Objetos Brillantes-en-la-Oscuridad
El objeto Material permite la especificación de un color emisivo. Esto se puede utilizar
para crear el efecto de un objeto brillante en la oscuridad. Tener un color emisivo no hace
del objeto visual una fuente de luz; no iluminará otros objetos visuales. El Material
Emisivo es también útil en aplicaciones especiales, tales como indicar un objeto especial o
un objeto que se ha escogido.
La Figura 6-26 muestra la escena del programa del ámbito de luz donde se le ha dado
color emisivo al rectángulo no iluminado. Comparemos esta imagen con la imagen
izquierda de la Figura 6-25. Como podemos ver, el uso del color emisivo sólo modifica al
objeto visual que lo tiene. Este ejemplo también demuestra que el uso eficaz del color
emisivo, como con la mayoría de los parámetros de la iluminación, es más un problema
artístico que de programación.
Figura 6-27, Proyectar la Sombra de un Objeto visual hacia un Plano con una Luz
El sombreado es mucho más complejo en realidad. Las fuentes de luz no son fuentes
puramente direccionales ni perfectas. Por lo tanto, las sombras no tienen bordes
sostenidos. Ignorando la realidad, como hacemos a menudo en gráficos, echemos una
ojeada a las formas de simular sombras.
Crear Sombras
Hay dos partes básicas al simular (o al falsificar) sombras: calcular donde están las
sombras, y crear geometrías (o texturas) para servir como sombras. Hay varias maneras
de calcular la localización de la sombra, pero los detalles de las distintas técnicas de
sombreado están más allá del alcance de esta guía. Las dos secciones siguientes cubren
dos técnicas generales para crear el contenido de la sombra.
Sombrear Polígonos
Sombrear Texturas
Como las sombras anteriores, las sombras naturales son complejas. Una sombra natural
raramente tiene un borde recto y una sombra constante. Se puede usar el texturado para
hacer sombras más realistas. Hay dos maneras básicas de usar texturado para crear
sombras: aplicando textura a los polígonos sombra, o la aplicación de texturas a los
objetos visuales.
Como el texturado no se ha cubierto todavía (Capítulo 7), y el cálculo de las texturas de la
sombra (incluso off-line) es difícil (y va más allá del alcance de esta guía) este es un tema
pendiente para otro libro.
Debemos tener presente que la adición de sombras a una aplicación hace la aplicación
mucho más compleja. Por ejemplo, cuando un cubo con una sombra gira, la sombra gira y
se deforma. Para esa materia, las luces móviles hacen que las sombras se muevan
también. En cualquier caso, el movimiento agrega otro nivel de complejidad a la
programación de sombras.
Varias asunciones hechas en la clase SimpleShadow (para hacerlo fácil) limitan las
aplicaciones de esta clase. SimpleShadow está limitada en que: proyecta solamente a los
planos, sólo considera una luz, sólo hace algunas orientaciones, no considera las
dimensiones del plano sobre el que se está proyectando. Escribir una clase de fines
generales para el cálculo de la sombra es una empresa importante.
Figura 6-28, Escena Producida por ShadowApp.java Demostrando el sombreado automático en Java 3D
El objeto View contiene todos los parámetros necesarios para rendereizar una escena
tridimensional desde un punto de vista.
void setLocalEyeLightingEnable(boolean flag)
Selecciona una bandera que india si se usa el ojo local para calacular las proyecciones de
perspectivas.
void setWindowEyepointPolicy(int policy)
Selecciona la política del modelo de vista de ojo de la ventana a uno de :
● RELATIVE_TO_FIELD_OF_VIEW,
● RELATIVE_TO_SCREEN, RELATIVE_TO_WINDOW
Texturas en Java 3D
El aspecto de muchos objetos del mundo real depende de su textura. La textura de un objeto es
realmente la geometría relativamente fina de la superficie de un objeto. Para apreciar la superficie del
papel las texturas juegan con el aspecto de los objetos del mundo real, consideremos una alfombra.
Incluso cuando todas las fibras de una alfombra son del mismo color la alfombra no aparece con un
color constante debido a la interacción de la luz con la geometría de las fibras. Aunque Java 3D es
capaz de modelar la geometría de las fibras individuales de la alfombra, los requisitos de memoria y
el funcionamiento de la renderización para una alfombra del tamaño de una habitación modelada a
tal detalle harían dicho modelo inútil. Por otra parte, tener un polígono plano de un solo color no hace
un reemplazo convincente para la alfombra en la escena renderizada.
Hasta ahora en el tutorial, los detalles de los objetos visuales los ha proporcionado la geometría.
Consecuentemente, los objetos visualmente ricos, como los árboles, pueden requerir mucha
geometría que a cambio requiere mucha memoria y cálculo de renderización. A cierto nivel de detalle,
el rendimiento puede llegar a ser inaceptable. Este capítulo muestra cómo añadir el aspecto del
detalle superficial a un objeto visual sin la adición de más geometría con el uso de texturas
¿Qué es el Texturado?
Una alfombra puede ser un ejemplo extremo en términos de complejidad y de densidad de la
geometría superficial, pero está lejos de ser el único objeto para el cual percibimos textura. Los
ladrillos, el cemento, la madera, los céspedes, las paredes, y el papel son sólo algunos de los objetos
que no se representan bien con polígonos planos (no-texturados). Pero, igual que con la alfombra, el
coste de representar la textura superficial en los primitivos geométricos para estos objetos sería muy
alto.
Una posible alternativa a modelar la fibra de la alfombra es modelar la alfombra como un polígono
plano con muchos vértices, asignando colores a los vértcies para darle variaciones de color. Si los
vértices están suficientemente cercanos, se puede reproducir la imagen de la alfombra. Esto requiere
significativamente menos memoria que el modelo que incluye las fibras de la alfombra; sin embargo,
el modelo todavía requiere demasiada memoria para un tamaño de habitación razonable. Esta idea,
de representar la imagen del objeto en una superficie plana, es la idea básica de texturado. Sin
embargo, con el texturado, la geometría puede ser muy sencilla.
El texturado, también llamado mapeo de textura, es una manera de añadir riqueza visual a una
superficie sin la adición de los detalles geométricos finos. La riqueza visual la proporciona una
imagen, también llamada textura, que da el aspecto del detalle superficial para el objeto visual. La
imagen se mapeda dentro de la geometría del objeto visual en el momento de la renderización. De
ahí el término mapeo de textura.
La Figura 7-1 muestra algunas de las texturas usadas en los programas de ejemplo de este capítulo.
Como podemos ver, una textura puede proporcionar riqueza visual a objetos de distintos tamaños.
Figura 7-1, Imágenes usadas como Texturas en los Programas de Ejemplo.
Texturado Básico
El texturado de polígonos en un programa de Java 3D se consigue a través de la creacción del
manojo de apariencia apropiado y cargando la imagen de la textura dentro de él, especificando la
localización de la imagen de la textura en la geometría, y fijando los atributos de texturado. Como
veremos, especificar texturas puede ser muy complejo. Afortunadamente, hay clases de utilidad para
ayudarnos en el proceso y las configuraciones de los valores por defecto para las opciones texturado
son las apropiadas para las aplicaciones de texturado básicas.
Para explicar el texturado, la siguiente sección presenta una sencilla eceta; y en secciones
posteriores se desarrolla un programa de ejemplo basado en la receta, además de explicar el
texturado.
Al igual que muchas de las recetas de este tutorial, algunos de estos pasos se pueden realizar en
cualquier orden. De echo, los pasos de esta receta se pueden realziar en cualquier orden (siempre
que los los pasos 2a y 2b se hagan juntos).
Esta receta comienza con un paso sin programación: "preparar las imágenes de textura". Crear y
corregir imágenes de textura es algo que normalmente se hace externamente a los programas de
Java 3D. De hecho, la mayoría de las imágenes de textura están preparadas antes de que se
comience el programa. Hay dos tareas esenciales en la preparación de la imagen de textura: 1.
asegurarnos de que las imágenes sean de dimensiones aceptables, y 2. asegurarnos de que las
imágenes se graban en un formato de fichero que pueda ser leído. Por supuesto se puede editar la
imagen para alcanzar el color, la transparencia, y las características deseadas.
Por razones de eficiencia , Java 3D necesita que el tamaño de la imagen de la textura sea una
potencia matemática de dos (1, 2, 4, 8, 16, ...) en todas las dimensiones. No cumplir esta restricción
dará lugar a una excepción en tiempo de ejecución.
Si una imagen no es de las dimensiones aceptables, debe ser modificada (escalada o recortada) para
cumplir los requisitos de dimensión antes de que sea utilizada. La edición de la imagen se puede
hacer en una gran variedad de programas incluyendo el API Java Advanced Imaging. En la Figura
7-1, las dos imágenes más pequeñas son de 128 por 128, el árbol es de 256 por 128, y la tierra es
de 256 por 256.
En lo que concierne a los formatos de fichero, se puede utilizar cualquier formato de fichero siempre
que proporcionemos un métodos para cargarlo. Los programas de este capítulo cargan texturas
usando la clase de utilidad TextureLoader. Un objeto TextureLoader carga JPEG, GIF, y otros
formatos de fichero.
Una palabra más sobre los programas del ejemplo antes de pasar al paso siguiente. Los fragmentos
del código y los programas de ejemplo de este capítulo utilizan los nombres del archivo para algunos
ficheros de imagen que están incluidos en los ficheros Jar de ejemplo. No hay nada especial en estos
ficheros de imagen a excepción de que cumplen con la restricción de las dimensiones. Cualquier
fichero de imagen se puede utilizar en los programas simpre que las dimensiones de las imágenes
sean potencia de dos . Podemos compilar y ejecutar los programas del ejemplo con nuestros propios
ficheros de a imagen. Ahora, con las imágenes de texturas listas, podemos empezar la programación.
El siguiente paso es conseguir la imagen preparada en un objeto imagen. Esto se conoce como cargar
la textura. Las texturas se pueden cargar desde ficheros o URLs usando de mismo proceso básico.
Cargar una textura se puede lograr con muchas líneas del código, o con dos líneas de código que
utilicen un objeto TextureLoader. De cualquier forma, el resultado es conseguir la imagen en un
objeto ImageComponent2D. El Fragmento de Código 7-1 muestra un ejemplo de dos líneas que
utilizan un TextureLoader. El resultado de estas dos líneas es cargar la imagen del fichero stripe.gif
en un objeto Image2DComponent que se pueda utilizar para crear el manojo de apariencia
necesario para el paso 3.
Antes de pasar al paso 3 de la receta, echemos una ojeada más cercana el uso del objeto
TextureLoader. El segundo argumento del constructor especifica un objeto que sirva como image
observer. La clase TextureLoader utiliza el paquete java.awt.image para cargar las imágenes. Este
paquete carga las imágenes de forma asíncrona, lo que es particularmente útil cuando una imagen se
carga de una URL. Para facilitar el manejo de cargas asíncronas de imágenes, los componentes de
AWT están capacitados para ser observadores de imagen, que es observar el proceso de la carga de
la imagen. A un observador de imagen se le puede preguntar por los detalles de la carga de la
imagen.
Con el fin escribir programas Java 3D todo lo que necesitamos saber es que cualquier componente
del AWT puede servir como un observador de imagen. Puesto que Applet es una extensión del
componente Panel del AWT, el objeto Applet de un programa de Java 3D puede ser el observador
de imagen para el objeto TextureLoader.
El manojo de apariencia creado en el Fragmento de Código 7-2 podría tener otros nodos
componentes, la más notable de las posibilidades es el nodo componente TextureAttributes. Para
este ejemplo, no se utiliza ningún objeto TextureAttributes.
El siguiente bloque de referencia muestra sólo uno de los métodos de GeometryArray disponible
para fijar coordenadas de textura.
Método setTextureCoordinate de GeometryArray
Las coordenadas de textura se especfican por cada vértice de la geometría mediante uno de los
distintos métodos setTextureCoordinate de la clase GeometryArray.
void setTextureCoordinate(int index, Point2f texCoord)
Selecciona las coordenadas de textura asociadas con el vértice del índice especificado para este
objeto.
El Fragmento de Código 7-3 crea un solo plano usando un objeto de geometría QuadArray. Los
coordenadas de la textura se asignan para cada vértice. En el código, las líneas tres a once
establecen las cuatro esquinas de un cuadrángulo en 3-espacios. Las líneas 13 a 21 establecen la
localización de la textura en la geometría. Este fragmento determinado de código crea un plano de 2
metros en una cara y pone la imagen de la textura en la orientación normal (hacia arriba, no
invertido) a lo largo de la cara del plano.
La Figura 7-4 muestra la relación entre las coordenadas de vértice y las coordenadas de la textura
para el cuadrángulo del ejemplo creado en el Fragmento de Código 7-3. La imagen izquierda de la
Figura 7-5 muestra la aplicación de la textura stripe.gif a la geometría del ejemplo.
Figure 7-5. La orientación de las Coordenadas de Textura en el Espacio de una Imagen de Textura.
Ahora que hemos completado los tres pasos del texturado, el objeto texturado puede añadirse a un
escenario gráfico. La siguiente sección presenta una serie de programas de ejemplo que muestra
algunas opciones de texturado.
Figura 7-5, Escena Renderizada por los programas SimpleTextureApp (izq.) y SimpleTextureSpinApp (der.).
La Clase NewTextureLoader
Los programas Java 3D que usan texturas pueden tener una gran cantidad de líneas sólo para cargar
las texturas y crear los manojos de apariencia. Se puede ahorrar algo de programación y, más
importante, memoria en tiempo de ejecución compartiendo manojos de apariencia cuando sea
apropiado. Sin embargo, esto no reduce mucho la cantidad de programación. Se pueden conseguir
otras reducciones de programación creando una clase para crear los manojos de apariencia de
textura. El desafío de crear esta clase consiste en el requisito del observador de imagen para el
objeto TextureLoader.
El objeto Canvas3d o un Applet pueden servir como el observador de imagen, pero tener una
referencia a un cierto componente por todas partes en el programa puede ser fastidioso. Para tratar
esta inconveniencia, se ha extendido la clase TextureLoader que elimina la necesidad de un
componente observador de imagen. En su lugar se utiliza un solo método para especificar un
observador de imagen para todas las aplicaciones futuras del cargador de textura.
Los constructores de NewTextureLoader son iguales a los de TextureLoader excepto en que
ninguno requiere un componente observador de imagen. Los métodos de NewTextureLoader son
los mismos de TextureLoader con el método adicional para fijar un observador de imagen.
Otro programa del ejemplo, TexturaPlaneApp.java, carga tres texturas y las visualiza en los planos
según lo mostrado en la Figura 7-6. Lo importante de este programa es que las texturas se cargan
usando la clase TexturedPlane definida externamente al resto del programa que se hace más
fácilmente con la clase NewTextureLoader. Esta clase TexturedPlane no es lo bastante flexible
para ser utilizada en muchas aplicaciones, pero sirve como demostración para clases similares.
Figura 7-6, Tres Planos Texturados renderizados por TexturedPlaneApp.java
1. scene.addChild(tg0);
2. tg0.addChild(tg1);
3. tg1.addChild(new TexturedPlane("stripe.gif"));
4.
5. tg0.addChild(tg2);
6. tg2.addChild(new TexturedPlane("brick.gif"));
7.
8. tg0.addChild(tg3);
9. tg3.addChild(new TexturedPlane("earth.jpg"));
Fragmento de Código 7-4, Añadir tres objetos Texturados a un Escenario Gráfico.
Este programa muestra algunos de los posibles renderizados para un plano usando la misma textura.
Las asignaciones de textura hechas en este programa son ejemplos de posibles errores mientras que
todas son aplicaciones legítimas. La imagen de la izquierda es una aplicación de solo una sola fila de
texels - las mismas coordenadas de textura se asignan a las parejas de vértices. La imagen de la
derecha es la aplicación de un solo texel - las cuatro coordenadas de textura son iguales. Las dos
imágenes del centro muestran la asignación de las coordenadas de textura de maneras no uniformes.
El cambio de la textura a lo largo de la diagonal es debido a la triangulación del polígono.
El Fragmento de Código 7-5 muestra las coordenadas de textura asignadas en la aplicación
TexturaRequestApp.java. Estas asignaciones usadas con la textura stripe.gif resultan en las
imágenes de la Figura 7-9.
Otras opciones de texturado van más allá de las configuraciones Texture y TextureAttributes. Por
ejemplo, una textura puede ser tridimensional. En secciones posteriores veremos el API para la clase
Texture3d, que, como Texture2D, es una extensión de la clase Texture.
Opciones de Textura
Texture2D, la clase usada en los ejemplos anteriores, es una extensión de Texture. Algunas de las
opciones básicas para el texturado se implementan en esta clase. Puesto que Texture es una clase
abstracta, sus configuraciones se harán a través de un objeto Texture2D o Texture3d. Las
configuraciones son el modo de límites, filtros, y el formato de la textura.
En todos los programas anteriores, se han asociado las texturas de una manera tal que una copia de
la imagen se ha utilizado para cubrir el plano. El problema es qué hacer cuando una coordenada de
textura está más allá del rango 0 a 1 del espacio de la textura y no fue direccionada.
La configuración del modo de límites determina lo que ocurre cuando el mapeo tiene lugar si las
coordenadas de textura van más allá del rango 0 a 1 del espacio de la imagen. Las opciones son
envolver la imagen, o abrazar la imagen. Envolver, significa repetir la imagen según sea necesario, es
el valor por defecto. Abrazar utiliza el color del borde de la imagen en cualquier lugar fuera del rango
0 a 1. Estas configuraciones se hacen independientemente en las dimensiones s y t.
En el programa del ejemplo BoundaryModeApp la textura se asocia sobre aproximadamente la
novena parte de cada uno de los planos. La Figura 7-11 muestra la escena según lo renderizado por
este programa. Las variaciones en las imágenes se deben solamente a la configuración de los modos
de límites para los planos. De izquierda a derecha las configuraciones son (s luego t) WRAP y WRAP,
CLAMP y WRAP, WRAP y CLAMP, y CLAMP y CLAMP.
Figura 7-11, Comparación de las Combinaciones de Modo de Límites para un Plano Texturado.
Observa que al contrario que las aplicaciones anteriores que comparten el mismo objeto Texture
entre cuatro objetos visuales, la textura se carga cuatro veces en esta aplicación. Esto es necesario
puesto que cada uno de los objetos Texture tiene diversas combinaciones de las configuraciones del
modo de límites.
Especificación de Filtrado
En el cálculo de las coordenadas de textura para cada pixel, raramente hay una correspondencia del
pixel directamente a un sólo texel. Normalmente un pixel es del tamaño de varios texels o más
pequeño que un texel. En el primer caso se utiliza un filtro de ampliación para asociar varios texels a
un pixel. En el segundo caso se utiliza un filtro de reducción para asociar el texel o los texels a un
pixel. Hay opciones para manejar cada uno de estos casos.
El filtro de ampliación especifica qué hacer cuando un pixel es más pequeño que un texel. En este
caso la textura será ampliada como si se aplicara sobre la geometría. Cada texel aparecerá como
varios pixels y es posibles que la imagen resultante exhiba el "texelization" donde se verían los texels
individuales para la renderización. Las opciones para el filtro de ampliación son hacer el punto de
muestreo, que es seleccionar el texel más cercano y utilizar su color, o interpolarlo entre texels
vecinos. El punto de muestreo, o muestreo del vecino más cercano, generalmente tiene menor coste
de cálculo; mientras que el muestreo linear de la interpolación cuesta más (en cálculo y por lo tanto
en tiempo de renderización) pero reduce el aspecto de cualquier texelization.
El filtro de reducción especifica qué hacer cuando un pixel es más grande que un texel. En este caso
los texels deben ser "reducidos" para caber en el pixel. El problema trata en que un pixel puede
solamente tener un valor de color y varios texels podrían suministrarlo. Las opciones para el filtro de
reducción son hacer el punto de muestreo, que es seleccionar el texel más cercano y utilizar su color,
o interpolarlo entre texels vecinos.
No está siempre claro qué filtro será utilizado. Consideremos una textura estirada en una dirección
pero aplastada en otra. Dependiendo de qué dimensión see considera, se escogerá un filtro diferente.
No hay nada que el programador pueda hacer para determinar cuál será utilizado. Sin embargo, el
sistema de ejecución normalmente escoge el filtro que resulte en una imagen mejor.
La selección de un filtro tiene otras implicaciones con respecto al uso del color de límite (siguiente
sección). También, las opciones del filtro de reducción son más complejas cuando se usan varios
niveles de texturado.
Color de Limites
El comportamiento del modo de límites es además configurable con un color del límite. Cuando el
modo de límite es CLAMP y se especifica color de límite, se utiliza el color del límite cuando las
coordenadas de la textura están fuera del rango 0 a 1. Solo se puede especificar un color de límite
para utilizar un color en cada dimensión para la cual el modo de límite se fije a CLAMP. El programa
de ejemplo BoundaryColorApp demuestra esta característica.
En la Figura 7-12 se han fijado colores de límite para los cuatro planos. El plano más a la izquierda no
utiliza su color de límite porque sus modos de límite son ambos WRAP. Para el plano siguiente utiliza
el color negro de límite sólo en la dimensión vertical debido a los modos de límite. Podemos ver la
mezcla entre el azul y el negro a la izquierda; en el lado derecho de la imagen el color negro del
límite se mezcla con el borde blanco de la textura. Los colores de límite para los dos planos restantes
son verde y rojo. Ambos modos de límite son CLAMP para el plano de la derecha de la imagen.
Observa que el color de límite no se utiliza si el filtro es BASE_LEVEL_POINT. Para que el color del
límite sea utilizado, el filtro necesita ser por lo menos BASE_LEVEL_LINEAR. El corolario es que
siempre que el filtro no sea BASE_LEVEL_POINT se utiliza el BoundaryColor.
También observa que la misma textura se carga cuatro veces en esta aplicación. Un objeto Texture
no se puede compartir entre los cuatro planos en esta aplicación puesto que cada objeto de textura
se configura con una combinación distinta de modos de límite.
Formato de Textura
Texture3d
Como el nombre implica, un objeto Texture3d contiene una imagen tridimensional de la textura.
Puede ser que pensemos en él como un volumen de color. La clase Texture3d es una extensión de
Texture, así que todas las características de la clase Texture se aplican a Texture3d. La única
característica que Texture3d tiene y que Texture2D no tiene, es una especificación para el modo de
límite de la tercera dimensión, o la dimensión r.
Texturado de Líneas
Los polígonos no son los únicos elementos gráficos que pueden ser texturados; las líneas también se
pueden texturar. El programa TexturedLinesApp.java lo demuestra, usando una textura 1-D para
texturar líneas de un objeto visual. En esta aplicación, el objeto visual es una tira torcida creada en el
capítulo 2. El único 'truco' para texturar líneas es crear el manojo de apariencia apropiado para
visualizar las líneas de la geometría y de los polígonos no rellenos. El Fragmento de Código 7-7
muestra las líneas del código para agregar el componente PolygonAttributes a un manojo de
apariencia para visualizar las líneas.
Una textura unidimensional es realmente un objeto Texture2D con una dimensión (generalmente t)
con tamaño 1. Para el programa de ejemplo, la textura tiene 16 texels por 1 texel. Las coordenadas
de dos dimensiones de la textura se asignan al objeto visual. El valor-t de cada coordenada de
textura se fija a 0.0f. Sin embargo, se podría utilizar cualquier valor-t y el resultado sería igual. La
Figura 7-14 muestra la geometría de la tira torcida visualizada como líneas texturadas. El código
fuente está en TexturedLinesApp.java
Figura 7-14, Líneas Texturadas en Java 3D.
Atributos de Textura
En secciones anteriores vimos algunas de las opciones disponibles en texturado. El componente
TextureAttributes permite la personalización posterior del texturado. Las configuraciones de los
atributos de textura incluyen el modo de textura, color de mezcla, modo de corrección de
perspectiva, y una correspondencia del mapeo de la textura. Los valores por defecto para estas
configuraciones son REPLACE, black, FASTEST, y NONE, respectivamente. Además, el método
setEnable permite activar y desactivar el mapeo de la textura. Todas las configuraciones se explican en
esta sección.
Una ventaja de tener controladas las características del texturado por un componente diferente del
nodo es la capacidad de compartir una textura entre objetos visuales pero aún así poder
personalizarla para cada objeto visual. La Figura 7-10 muestra dos objetos visuales que comparten
un solo objeto Texture. Cada uno de los objetos visuales personaliza la textura con el componente
TextureAttributes en su manojo de apariencia.
Figura 7-16, Dos objetos visuales compartiendo la misma Textura Personalziada por Componentes TextureAttributes.
Los objeto TextureAttributes se añaden al escenario gráfico como miembros de una manejo de
apariencia. El método setTextureAttributes de Appearance se muestra en el siguiente bloque de
referencia.
Método setTextureAttributes de la Clase Appearance
void setTextureAttributes(TextureAttributes textureAttributes)
Selecciona el objeto textureAttributes en un objeto appearance.
Modo de Textura
Para apreciar el rol del modo de textura debemos entender la secuencia de las operaciones
implicadas en la determinación del color de un pixel. Indicado brevemente, primero se calcula el color
de la no-textura de un pixel, y luego se aplica la textura. El color de no-textura lo determina el color
de la geometría por vértice, ColoringAttributes, o la combinación de las características materiales y
las condiciones de iluminación. Como hay varias formas de determinar el color de la no-textura, hay
varias maneras posibles de combinar el color de la no-textura y el color de la textura.
La configuración del modo de textura es un factor importante en la determinación de cómo afecta el
valor del texel (color y/o alpha) a los valores del color y del alpha del pixel de la no-textura. La
operación de texturado real depende de la combinación del formato de la textura y del modo de
textura. Puedes referirte a la especificación de Java 3D API (apéndice E) para más información.
El modo de textura por defecto es REPLACE, las otras opciones son BLEND, DECAL, y MODULATE.
Cada uno de los modos se describe en las siguientes secciones. También podemos ver la tabla que
resume los modos de la textura.
Blend
Decal
En el modo DECAL, el color de la textura se aplica como etiqueta encima del color de la no-textura.
La transparencia de la textura determina la cantidad de color material a utilizar. La transparencia del
pixel se deja sin cambios. Esto es totalmente igual que aplicar una etiqueta a un objeto del mundo
real. El formato de textura debe ser RGB o RGBA para el modo de textura de DECAL.
Modulate
La Siguiente tabla ofrece un sumario de cada uno de los modos de textura. Esta tabla se ha pensado
como una guía general para entender los distintos modos de textura disponibles. Los cálculos del
color real se basan en una combinación del modo de textura y del formato de textura.
Cuando se permite la iluminación, los componentes de colores ambiente, difuso, y emisivo se ven
afectados por la operación de textura; el color specular se ve afectado. El color specular se calcula
basándose en las condiciones del material y de la iluminación, luego después de que la operación de
la textura se aplique a otros componentes del color (no-texturados) el color specular se agrega a los
otros colores que renderizan el color final del pixel.
Color de Pixel
Modo de Textura Determinado por Aplicación a...
Derivado desde
Color de Textura,
Escenas Iluminadas
BLEND no-textura, y color Color de textura
con Color de Mezcla
mezcla opcional
Color de Textura y
DECAL alpha de la textura detalles de superficie
color no-textura
Colores de Textura y Escenas de
MODULATE n/a
de no-textura iluminación
Sólo color de textura
Escenas sin
REPLACE (modo de textura n/a
iluminación
por defecto)
API TextureAttributes
Los siguientes bloques de referencia listan los constructores, métodos y capacidades del componente
TextureAttributes.
Sumario de Constructores de la Clase TextureAttributes
Extiende: NodeComponent
Estas constantes se usan en los constructores y métodos para seleccionar los modos de textura
y de corrección de la perspectiva.
Constantes de Modo de Textura
● BLEND Mezcla el color de mezcla con el color del objeto.
● DECAL Aplica el color de la textura al objeto como una etiqueta.
● MODULATE Modula el color del objeto con el color de la textura.
● REPLACE Reemplaza el color del objeto con el color de la textura.
Constantes del Modo de Corrección de Perspectiva
● FASTEST Usa el método más rápido disponible para la correción de perspectiva del mapeo
de textura.
● NICEST Usa el mejor método (de mayor calidad) disponible para la correción de
perspectiva del mapeo de textura.
Sumario de Métodos de la Clase TextureAttributes
void getTextureBlendColor(Color4f textureBlendColor)
Obtiene el color de mezcla de la textura para este objeto appearance.
void getTextureTransform(Transform3d transform)
Recupera una copia del objeto transformation de la textura.
void setPerspectiveCorrectionMode(int mode)
Selecciona el modo de corrección de la perspectiva a usar para la interpolación de coorednadas
de color y/o textura a uno de :
● FASTEST Usa el método más rápido disponible para la correción de perspectiva del mapeo
de textura.
● NICEST Usa el mejor método (de mayor calidad) disponible para la correción de
perspectiva del mapeo de textura.
void setTextureBlendColor(Color4f textureBlendColor)
void setTextureBlendColor(float r, float g, float b, float a)
Selecciona el color de mezcla para este objeto TextureAttributes.
void setTextureMode(int textureMode)
Selecciona el parámetro del modo de textura a uno de:
● BLEND Mezcla el color de mezcla con el color del objeto.
Poyección Linear
Con la proyección linear, las coordenadas de textura se especifican con planos. Para las coordenadas
de textura de dos dimensiones (s,t), se utilizan dos planos. La distancia desde un vértice a un plano
es la coordenada de textura en una dimensión; la distancia desde el otro plano a un vértice es la
coordenada de textura en la otra dimensión. Para las texturas tridimensionales, se utilizan tres
planos.
Los tres parámetros planos posibles se nombran planeS, planeT, y planeR, donde el nombre corresponde
a la dimensión para la cual se utiliza. Cada plano se especifica como 4-tuple (ecuación plana). Los
primeros tres valores son el vector normal superficial para el plano. El cuarto valor especifica la
distancia desde el origen al plano a lo largo de un vector paralelo al vector normal superficial del
plano.
Hay dos variaciones en este método automático de generación de coordenadas de textura. El
primero, llamado objeto linear, produce coordenadas de textura estáticas. Con coordenadas de
textura generadas linearmente, si el objeto visual se mueve, los coordenadas de textura no cambian.
La segunda opción, llamada ojo linear, produce coordenadas de textura relativas a las coordenadas
del ojo dando como resultado coordenadas de textura variables. Con coordenadas de textura linear
del ojo los objetos que se mueven parecen moverse con la textura.
La Figura 7-17 muestra las imágenes producidas por un programa de ejemplo que utiliza un objeto
TexCoordGeneration para asignar coordenadas de textura a una tira torcida. En esta aplicación se
usa una textura unidimensional. La textura tiene un solo texel rojo en un extremo. Cuando la
aplicación se ejecuta, la tira torcida rota.
La imagen de la izquierda de la Figura 7-17 muestra el texturado con modo de generación
OBJECT_LINEAR. En este caso la textura rota con el objeto y se puede ver el texel rojo rotar con la
tira. La imagen de la derecha de la Figura 7-17 muestra la textura que resulta cuando el modo la
generación es EYE_LINEAR para la tira torcida. En este caso, el texel rojo permanece en el centro
de la vista mientras que el objeto rota.
Mapeo Esférico
Si un objeto brillante está en el centro de una habitación real, probablemente reflejaría la imagen de
muchos de los otros objetos de la habitación. Las reflexiones dependerían de la forma del objeto y de
la orientación de las cosas en la habitación. El modo de generación de las coordenadas del mapeo
esférico está diseñado para asignar coordenadas de textura para aproximar las reflexiones de otros
objetos sobre el objeto visual como sucedería para el objeto brillante en el mundo real del ejemplo.
Cuando se usa un objeto TexCoordGeneration en el modo de mapeo esférico el cálculo de las
coordenadas de textura se basa en las superficies normales y en la dirección de la vista.
La textura usada para este efecto debe estar especialmente preparada. Si el ambiente virtual del
objeto brillante existe en el mundo real, una fotografía de la escena tomada con una lente de ojo de
pez creará una imagen de textura conveniente. Si no existe la escena, entonces la textura se debe
crear para parecer que la imagen es una fotografía tomada con una lente de ojo de pez.
Cómo usar un Objeto TexCoordGeneration
Para usar un objeto TexCoordGeneration, lo seleccionamos como un componente del manojo de
apariencia del objeto visual a texturar. La Figura 7-18 muestra el diagrama de una manojo de
apariencia con un objeto TexCoordGeneration junto con un objeto Texture y otro objeto
TextureAttributes.
API TexCoordGeneration
Los siguientes bloques de referencia listan los constructores, constantes, métodos y capacidades de
los objetos de la clase TexCoordGeneration.
Sumario de Constructores de la Clase TexCoordGeneration
El objeto TexCoordGeneration contiene todos los parámetros necesarios para generar coordenadas de
textura. Está incluido como parte de un objeto Appearance.
TexCoordGeneration()
Construye un objeto TexCoordGeneration usando los valores por defecto para todas las edades.
TexCoordGeneration(int genMode, int format)
Construye un objeto TexCoordGeneration con genMode y format especificados.
TexCoordGeneration(int genMode, int format, Vector4f planeS)
TexCoordGeneration(int genMode, int format, Vector4f planeS, Vector4f planeT)
TexCoordGeneration(int genMode, int format, Vector4f planeS, Vector4f planeT, Vector4f planeR)
Construyen un objeto TexCoordGeneration con genMode, format, y las ecuaciones de los planos especificados.
Sumario de Campos de la Clase TexCoordGeneration
Figura 7-19, Múltiples Niveles de una Textura (Tamaños de imágenes: 128x128, 64x64, 32x32, …, 1x1)
La Figura 7-20 muestra una imagen de un solo plano texturado con una textura múltiple donde cada
nivel de textura tiene un color diferente. El plano se orienta en ángulo al espectador para que el lado
izquierdo esté más cercano al espectador que el derecho. Debido a la proyección de la perspectiva el
lado izquierdo del plano parece más grande en coordenadas de la imagen que el derecho.
Debido a la orientación y a la proyección del plano, los pixels representan menos área superficial (en
el sistema virtual de coordenadas del objeto) a la izquierda y progresivamente más área superficial
hacia a la derecha, dando como resultado que el nivel de textura cambia. A la izquierda del plano en
la imagen, se utiliza el nivel base de la textura. Los cambios del color en la imagen indican donde
ocurrieron los cambios del nivel de textura durante la renderización.
Tener una textura para cada nivel de un color diferene no es la aplicación típica de texturado
múltiple. Esta aplicación simplemente iluistra la operación de una textura múltiple.
Figura 7-20, La imagen Generada por un Plano texturado con una Textura MipMap multi-color.
El Fragmento de Código 7-8 empieza siguiendo los mismos pasos que son utilizados para cualquier
aplicación de textura cargando la imagen base. Una diferencia es que el TextureLoader se crea con
la bandera GENERATE_MIPMAP (líneas 3-4). Entonces se extrae la imagen base del cargador de la
forma usual.
Las dimensiones de esta imagen son necesarias no sólo para crear el objeto Texture2D, sino
también para calcular los tamaños de las siguientes imágenes. Por esta razón se guardan en dos
variables (líneas 7 y 8). Estas variables serán utilizadas durante la generación y carga de las
imágenes restantes.
El objeto Texture2D se crea usando el modo MIPmap MULTI_LEVEL_MIPMAP y la dimensión de la
imagen base (líneas 10 y 11). El nivel base es el nivel 0. Entonces el número de nivel se graba y se
selecciona la imagen base como la imagen para el nivel 0 (líneas 12 y 13).
El bucle itera hasta que el tamaño de la imagen sea de 1 pixel por 1 pixel (línea 15). El número de
nivel se incrementa en cada iteración (línea 16) y se calcula la dimensión de la imagen (líneas 18 y
19). La imagen apropiadamente escalada se consigue desde TextureLoader (línea 21) y se
selecciona para el nivel actual en el objeto Texture2D (línea 22).
Cuando se crea un mapeo de textura de múltiples niveles debemos asegurarnos de seleccionar filtros
de nivel como se hace en las líneas 25 y 26 del Fragmento de Código 7-8. Las selecciones de filtrado
desactivan el nivel de texturado múltiple.
Crea las imágenes a mano permite una calidad superior y/o poder añadir efectos especiales. Las
imágenes generadas se producen filtrando la imagen base.
Modo Mipmap
El modo MIPmap de la clase Texture es realmente una elección entre varios niveles de textura y un
sólo nivel de textura. Las dos selecciones son BASE_LEVEL y MULTI_LEVEL_MIPMAP.
API Texture
Ahora que se han presentado todas las características de la textura, presentamos el API de la clase
Texture. Como esta es una clase abtracta no hay bloque de referencia sobre sus constructores.
Sumario de Campos de la Clase Texture
Constantes de Formato
● ALPHA Especifica la textura que sólo contiene valores Alpha.
● INTENSITY Especifica la textura que sólo contiene valores Intensity.
● LUMINANCE Especifica la textura que sólo contiene valores Luminance.
● LUMINANCE_ALPHA Especifica la textura que contiene valores Luminance y Alpha.
● RGB Especifica la textura que contiene valores de color Red, Green y Blue.
● RGBA Especifica la textura que contiene valores de color Red, Green, Blue y valor Alpha.
Constantes de modo MIPMap
● BASE_LEVEL Indica que el objeto Texture sólo tiene un nivel.
● MULTI_LEVEL_MIPMAP El objeto Texture tiene varios niveles - uno por cada nivel
mipmap.
Constantes de Filtro
● BASE_LEVEL_LINEAR Realiza interpolación bilinear sobre los cuatro texels más cercanos
en el nivel 0 del mapa de textura.
● BASE_LEVEL_POINT Selecciona el texel más cernano en el nivel 0 del mapa de textura.
● MULTI_LEVEL_LINEAR Realiza interpolación tri-linear sobre los cuatro texels más
cercanos de los dos niveles de mipmap más cercanos.
● MULTI_LEVEL_POINT Selecciona el texel más cercano en el mipmap más cercano.
API de Texture2D
Texture2D es una extensión concreta de la clase abstracta Texture. Texture2D sólo porporciona
un constructor de interés. Todos los métodos usados con objetos Texture2D son métodos de
Texture.
Sumario de Constructores de la Clase Texture2D
Parámetros:
● mipmapMode - tipo mipmap para este Texture: Uno de BASE_LEVEL,
MULTI_LEVEL_MIPMAP.
● format - formato de datos de las texturas grabadas en el objeto. Uno de INTENSITY,
LUMINANCE, ALPHA, LUMINANCE_ALPHA, RGB, RGBA.
● width - anchura de la imagen del nivel 0. Debe ser una potencia de 2.
● height - altura de la imagen del nivel 0. Debe ser una potencia de 2.
API de Texture3d
Texture3D es una extensión concreta de la clase abstracta Texture. Texture3D sólo porporciona
un constructor de interés. Todos los métodos usados con objetos Texture3D son métodos de
Texture.
Sumario de Constructores de la Clase Texture3d
Texture3d es una subclase de la clase Texture. Extiende la clase Texture añadiendo una
tercera coordenada, un constructor y un método mutador para seleccionar una imagen de
textura 3D.
Texture3d(int mipmapMode, int format, int width, int height, int depth)
Construye un objeto Texture2D vacío con los valores especificados de mipmapMode, format,
width, height y depth. La imagen del nivel 0 la debe seleccionar la aplicación usando el método
setImage. Si mipmapMode se selecciona a MULTI_LEVEL_MIPMAP, se deben seleccionar las
imágenes para TODOS los niveles.
Parámetros:
● mipmapMode - tipo mipmap para esta Texture: Uno de BASE_LEVEL,
MULTI_LEVEL_MIPMAP.
● format - formato de datos de las texturas grabadas en el objeto. Uno de INTENSITY,
LUMINANCE, ALPHA, LUMINANCE_ALPHA, RGB, RGBA.
● width - anchura de la imagen del nivel 0. Debe ser una potencia de 2.
● height - altura de la imagen del nivel 0. Debe ser una potencia de 2.
● depth - profundidad de la imagen del nivel 0. Debe ser una potencia de 2.
Sumario de Métodos de la Clase Texture3d
void setBoundaryModeR(int boundaryModeR)
Selecciona el modo de límite para la coordenada R de este objeto texture.
Parámetro:
● boundaryModeR - el modo de límite para la coordenada R, uno de: CLAMP o WRAP.
API de TextureLoader
Sumario de Campos de TextureLoader
GENERATE_MIPMAP
Bandera opcional - especifica los mipmaps generados para todos los niveles.
El siguiente bloque de referencia lista algunos constructores de la clase TextureLoader. Hay más
constructores que no se listan en este bloque de referencia que permiten la carga de imágenes de
textura desde otras fuentes. Puedes consultar la especificación del API Java 3D para ver una lista
completa de todos los constructores.
Lista Parcial de Constructores de la Clase TextureLoader
Extiende: java.lang.Object
Paquete: com.sun.j3d.utils.image
Esta clase se usa para cargar una textura desde un objeto Image o BufferedImage. Se
proporcionan métodos para recuperar el objeto Texture y el objeto ImageComponent
asociado o una versión escalada del objeto ImageComponent.
El formato por defecto es RGBA.
Otros formatos legales son: RGBA, RGBA4, RGB5_A1, RGB, RGB4, RGB5, R3_G3_B2,
LUM8_ALPHA8, LUM4_ALPHA4, LUMINANCE y ALPHA
TextureLoader(java.lang.String fname, java.awt.Component observer)
TextureLoader(java.lang.String fname, int flags, java.awt.Component observer)
Contruye un objeto TextureLoader usando el fichero especificado, la opción flags y el formato
por defecto RGBA.
TextureLoader(java.net.URL url, java.awt.Component observer)
TextureLoader(java.net.URL url, int flags, java.awt.Component observer)
Construye un objeto TextureLoader usando la URL especificada, opción flags y el formato por
defecto RGBA.
Sumario de Métodos de la Clase TextureLoader
ImageComponent2D getImage()
Devuelve el objeto ImageComponent2D asociado.
ImageComponent2D getScaledImage(float xScale, float yScale)
Devuelve el objeto ImageComponent2D escalado.
ImageComponent2D getScaledImage(int width, int height)
Devuelve el objeto ImageComponent2D escalado.
Texture getTexture()
Devuelve el objeto Texture asociado.
API de NewTextureLoader
La razón de utilizar NewTexureLoader es evitar la necesidad de un observador de imagen para
construir un cargador de textura. El siguiente boque de referencia enumera algunos constructores de
la clase NewTextureLoader. NewTextureLoader tiene los mismos constructores que
TextureLoader excepto en que ninguno requiere un componente del awt para servir como el
observador de imagen.
Lista Parcial de Constructores de la Clase NewTextureLoader
Extiende: com.sun.j3d.utils.image.TextureLoader
Esta clase se usa para cargar una textura desde un fichero o una URL. Esta clase se diferencia
de com.sun.j3d.util.image.TextureLoader sólo en la ausencia de un observador de imagen en el
constructor y en el método para selecccionar un sólo observador de imagen para todos los usos
posteriores.
NewTextureLoader(java.lang.String fname)
NewTextureLoader(java.lang.String fname, int flags)
Construye un objeto TextureLoader usando el fichero especificado, opción flags y el formato po
defecto RGBA.
NewTextureLoader(java.net.URL url)
NewTextureLoader(java.net.URL url, int flags)
Construye un objeto TextureLoader usando la URL especificada, opción flags y el formato por
defecto RGBA.
El siguiente bloque de referencia lista los dos métodos definidos en la clase NewTextureLoader.
Todos los demás métodos están definidos por la clase TextureLoader. Para usar un objeto
NewTextureLoader se debe seleccionar primero un observador de imagen. Esto se hace
normalmente cuando se crea el objeto Canvas3d.
Lista Parcial de Métodos de la Clase NewTextureLoader
java.awt.component getImageObserver()
Devuelve el objeto awt.component usado como el observador de imagen para los objetos
NewTextureLoader.
void setImageObserver(java.awt.component imageObserver)
Selecciona un objeto awt.component como el objeto a usar como observador de imagen en la
construcción de los siguientes objetos NewTextureLoader.
@ Ozito Anterior :: Home