martes, 24 de diciembre de 2013

Tutorial: Aprendiendo a usar el amplificador de sonido (GF-007) con Arduino

Buenos dias, un dia más buscamos sacarle nuevas experiencias a Arduino, y esta vez de la mano de un amplificador de audio.

¿Por que necesitamos esto?, muy simple muchas veces nuestra salida de audio no esta amplificada y suena muy muy bajo, de esta forma podremos conseguir obtener una salida en estereo amplificada.
Para este necesitaremos un par de componentes:

1) Nuestro ya conocido Arduino
2) El amplificador de audio GF-007.

 
3) Altavoces (yo he usado unas de una nintendo DS).


4) Un mini-jack (he destripado unos auriculares).

Lo primero es soltar al amplificador la extensiones para luego poder engancharlas (yo he usado este sistema porque quiero poder montar y desmontar), si no es el caso soldad directamente a la placa y listo.

Sol damos todas los cables que necesitamos y los enganchamos a las distintas partes del amplificador ( esta muy bien definido en la placa ), tanto las salidas de audio como las entradas. Lo unico que hay que tener en cuenta es que seguramente el cable que viene del mini-jack, vendran 4 cables, vereis que dos son del mismo color, unid esos 2 y es el que va al central, los otros 2 seran al Left y al Right.

Antes de alimentar al Arduino es muy importante que esten conectados todos los cables, ya que el fabricante advierte que si no lo estan y los conectamos a posteriori, es posible que nos cargemos la placa.

Y eso es todo, a disfrutar.
Actuadores amplificador audio Arduino Tutoriales

viernes, 29 de noviembre de 2013

Rusia desarrolla robot para trabajar en la Estación Espacial Internacional

El Centro de Entrenamiento de Cosmonautas Gagarin, ubicado en las afueras de Moscú (Rusia), presentó hoy un robot que planea llegar el próximo año a la Estación Espacial Internacional (EEI).


SAR-401, como fue bautizado, pesa 144 kilos y puede levantar peso de hasta diez kilos en tierra, algo que podría aumentar al llegar al espacio, debido a la falta de gravedad.

El robot puede desarrollar tareas simples mediante programación, y otras más complejas, manejado desde la Tierra.

Al igual que Robonaut, desarrollado por la Nasa y que actualmente se encuentra ayudando en la plataforma orbital, cuenta sólo con el torso y brazos para efectuarlas.



En la demostración realizada hoy, uno de los científicos que trabajó en su diseño demostró cómo es capaz de controlar los brazos y las manos del robot al ponerse un par de guantes especialmente diseñados para esta tarea.

Según indican los especialistas, SAR-401 fue ideado para realizar labores delicadas, tanto dentro como fuera de la EEI.



Referencia: latercera.com


Noticias

jueves, 14 de noviembre de 2013

Romo, robot con cerebro de iPhone

Una empresa europea, liderada por los antiguos gestores de Atari lanzó un gadget que convierte el iPhone -o el iPod Touch- en el ‘cerebro’ de un robot mascota, bautizado como Romo, el cual interactúa con los niños: baila, pone música, sirve de padre o madre virtual, al funcionar como una especie de “Skype sobre ruedas”, según afirmaron sus creadores.



Romo usa la misma tecnología que los robots limpia suelos o robots aspiradores. Su base sobre ruedas, similar a la de un pequeño tanque de juguete, incorpora un iPhone como terminal de gestión e interacción con los más pequeños. El usuario acopla el smartphone a dicha base y se descarga la aplicación gratuita, en varios idiomas, que rige al robot.




El gadget cuenta con reconocimiento facial y así los ojos saltones de la mascota siguen la cara de los niños cuando se acercan. Además, Romo replica ciertos sentimientos: se pone triste cuando está solo o se alegra cuando el pequeño lo reclama. El usuario, incluso, puede ‘crearle una personalidad’ o comportamientos, creando sus propias apps.

Este es un juguete que se puede controlar en remoto por wifi desde cualquier dispositivo con sistema operativo iOS, gracias a una aplicación que facilita su gestión desde cualquier otro iPhone, Mac o iPad.

Romo está desarrollado por Robopolis, multinacional europea, con base en Hamburgo, liderada por el magnate francés Bruno Bonnell, uno de los fundadores de Infogrames, holding que compró en su momento Atari, la mítica marca de videoconsolas arcade, en la que también, por cierto trabajó Steve Jobs.

Ver más en: http://es.robopolis.com/nuestros-productos/romo-robot/



Referencia: lanacion






Curiosidades Noticias

miércoles, 13 de noviembre de 2013

Winbot , robot limpiacristales

Limpiar los cristales de una casa es una labor engorrosa para la que parece que nunca hay tiempo. No se trata solo de lo molesto que es cargar con los mangos, esponjas y cubos, sino que excepto que se trate de un piso muy bajo, siempre incluye cierto de riesgo de caída. Por eso, muchas personas optan por contratar servicios periódicos de limpiacristales, aunque eso tiene el inconveniente de que hay que estar en casa cuando llega la persona, una sincronización horaria que se complica en el día a día. Así las cosas, hay veces que el problema se soluciona echando las cortinas.



Las empresas de tecnología hogareña llevan tiempo intentando ofrecer alternativas a esta situación, que se da en todo tipo de pisos y casas unifamiliares. Hace un par de años salió al mercado Windoro, de la firma coreana Piro; se trata de un robot con dos piezas -una para cada lado del cristal- unidas por imanes de neodimio, que llevan paños giratorios a alta velocidad y detergente limpiacristales. Lo comercializó en Europa la firma Eurobots por algo más de 400 euros.



Ahora le ha llegado el turno a Winbot, un sistema de Ecovacs que parece más sencillo de utilizar en casa. Se trata de un robot que solo limpia por un lado -hay, pues, que sacarlo por la ventana para lavar la parte exterior de la misma- pero que tiene grandes ventajas. Un sistema de ventosas lo mantiene seguro; pero además tiene un cable (bastante largo) que lo mantiene enchufado a la red eléctrica y se completa con un dispositivo para enrollarlo para aumentar la seguridad. El precio resulta más competitivo, sobre 300 euros, aunque hay una versión más sofisticada -por 350 euros- para las zonas de espejo o áreas donde el cristal no está limitado por metales -la mampara de una ducha, por ejemplo-, y ha de ser un sensor del robot el que determine hasta dónde sigue limpiando.




En cuanto a la seguridad, tiene una pequeña batería de reserva que le da energía durante treinta minutos si se corta la luz, para que las ventosas no se suelten del cristal y caigan al suelo; para minimizar impactos, si se corta la energía el robot se coloca en el extremo inferior de la ventana y emite sonidos de alarma. Al contrario de lo que ocurre con los robots de limpieza de suelos, para poner a funcionar el Winbot es conveniente que haya personas en la casa, evitando cualquier posible peligro.
El sistema de limpieza del robot parece menos complejo que su entramado de seguridad: un paño húmedo limpia y uno seco hace que el cristal brille. Al estilo de los robot aspiradores, el Winbot recorre la superficie subiendo y bajando de forma rectilínea y lo hace dos veces; al terminar su trabajo emite un pitido para avisar que el cristal está limpio.



Referencia: la voz de galicia


Noticias

lunes, 23 de septiembre de 2013

Un equipo de la Universidad de Las Palmas gana dos primeros premios en la World Robotic Sailing Championship 2013

Un equipo de investigadores de la ULPGC se alzó con dos primeros premios en la sexta edición de la World Robotic Sailing Championship (WRSC) 2013 celebrada en Brestal (Francia), al ganar la prueba de resistencia en la categoría Microsail (Ecole Navale Endurance Special Award) y lograr el primer lugar en la clasificación general dentro de esa misma categoría (Best Autonomous Microsailboat Award).




Este evento se ha desarrollado en paralelo con una conferencia internacional sobre veleros autónomos, la International Robotic Sailing Confrerence (IRSC).

El equipo ULPGC, integrado por el profesor del Departamento de Informática y Sistemas e investigador del IUSIANI, Jorge Cabrera Gámez, y el alumno del Máster "Sistemas Inteligentes y Aplicaciones Numéricas en Ingeniería" e ingeniero en Informática, Ángel Ramos de Miguel, presentó en la IRSC el trabajo An Enbedded Low-Power Control System for Autonomous Sailboats y participó en la WRSC con el A-TIRMA, un pequeño velero autónomo en la categoría Microsail para veleros de hasta un metro de eslora.




La competición contó con la participación de once equipos en diferentes categorías provenientes de Alemania, Finlandia, Francia, Gales, Portugal y España. A lo largo de varios días y con tiempo desigual, los equipos hubieron de superar diferentes pruebas de navegación en aguas próximas a Brest. La prueba estrella de este año, organizada por la Escuela Naval de la Armada Francesa en Brest, consistió en una prueba de navegación en aguas de la rada de Brest donde se debía cubrir una distancia de 4 millas náuticas de forma completamente autónoma.

Referencia: universocanario


Noticias

lunes, 12 de agosto de 2013

Tutorial: Aprendiendo a usar el un LED RGB con Arduino

Bueno os traemos otro nuevo tutorial para el uso de un led RGB con Arduino, a continuación os describimos como montarlo.



















Para alimentar este led se requiere 3.3v. Es importante decir que no poner una resistencia en la salida de 3.3v puede quemar el led RGB ó en su defecto poner un disipador en el led.

Para encender uno u otro led, hemos echo un ejemplo en el que una de las 3 tierras representa cada color (R, G, B).

Este led RGB en cuestión vale 2.55€ y lo puedes encontrar en este link.

Actuadores Arduino Tutoriales

lunes, 22 de julio de 2013

VI Salón de la Robótica y Automatización de Madrid.

184 empresas estarán presentes en los 146 stand que ocuparán más de 6.000 m2 de exposición, en los que se presentarán todas las novedades más significativas en la industria nacional. La feria será el 23 y 24 de octubre.




Todos los campos de actividad estarán representados en esta nueva edición: Máquina–Herramienta, (Arranque y Deformación), Herramientas, Piezas, Componentes y Accesorios, Lubricantes, Subcontratación, Metrología y Control de Calidad, Materiales, Software Industrial, Robots, Automatismos, Soldadura, Tratamientos Superficiales…..

Enfocada por y para la empresa española, MetalMadrid tiene como objetivo potenciar e incrementar el mercado de la subcontratación industrial en el territorio nacional. Con dos días de duración, MetalMadrid es la vía más útil para conocer las últimas novedades y obtener información sobre las tendencias del mercado, permitiendo asistir en directo a demostraciones y presentaciones de nuevos productos y/o servicios.

MetalMadrid ofrece al visitante profesional la posibilidad de realizar consultas con el personal técnico de las empresas participantes, así como aprovechar oportunidades especiales de compra que solo se ofrecen durante la feria.

Para ello, además ofrecemos una serie de Jornadas Técnicas que se desarrollarán en paralelo a la actividad expositiva.

Dos Jornadas Técnicas del más alto nivel, una centrada en el sector del Composite dentro de la industria del trasporte: aeronáutico, ferroviario y automoción. Donde empresas como Airbus, Talgo, MTorres, Carbures, Aernnova, TR Composites, DeltaVigo, Fidamc, expondrán su dilatada experiencia con estos materiales, sus necesidades y expectativas de futuro. Además se presentará lo que en el 2014 será la 1ª Feria del Composite en España, Composite Spain 2014. La otra jornada técnica estará centrada en la actualidad del sector de la Robótica y la Automatización.

Toda la documentación en: http://www.robomatica.es

Referencia: lavozdetenerife.com


Festivales-Concursos

Concurso de robótica en las escuelas

El Distrito de Sarrià-Sant Gervasi promoverá el próximo curso un concurso escolar de robótica para fomentar la vocación científica entre los estudiantes de secundaria mediante un proyecto en equipo que incluirá la construcción de un robot. La maquinaria ideada deberá resolver un problema real con una solución innovadora.




El certamen pretende que los alumnos de las escuelas de Sarrià-Sant Gervasi incorporen nuevos conocimientos en el currículo escolar y usen la creatividad en la innovación tecnológica. La propuesta se ha llevado al pleno del distrito.

También en este distrito, la Escola Universitària Salesiana de Sarrià (EUSS) acoge el Camp Tecnológico una especie de casal, dirigido a niños de 7 a 14 años, que se lleva a cabo desde el inicio de las vacaciones escolares. Los chavales «realizan actividades y aprenden a crear, construir robots, apps y vídeojuegos», señala Joan Ramon Molero, responsable de Promoción y Comunicación de la EUSS. Los viernes, los alumnos exponen los trabajos realizados.

Referencia: elperiodico.com



Festivales-Concursos

viernes, 19 de julio de 2013

Tutorial: Aprendiendo a usar el sensor de infrarrojos (YL-54 TCR5000) con Arduino


Bien hoy vamos a realizar un tutorial muy sencillote para aprender a captar valores desde nuestro sensor de infrarrojos.
En este caso el sensor usado es el YL-54 TCR5000, principalmente porque es muy barato y bastante eficiente.
A continuación explicamos como usarlo.

Bien primero definiremos el producto:
- Este sensor lleva (no se si un potenciometro o una resistencia variable (correjidme porfavor), pero te permitirá ajustar la sensibilidad. Importante, no os paseis porque se puede quemar, yo he dejado lo de fabrica y responde muy bien.
- El rango de distancia es de 0 a 3 cm
- El voljate es de 3.3v a 5v, asique perfecto para Arduino (yo estoy usando 5v, e iré haciendo pruebas)
- El led rojo os indica que esta recibiendo voltaje, el led de color verde os indica que esta enviado datos.
Definido esto, veamos los 4 pines de salida que presenta nuestro amigo.


1 VCC 3.3V-5V (Tensión)
2 GND (Tierra)
3 DO Este sera su salida digital (que iría a nuestra salida digital, y nos devuelve valores de 0 o 1)
4 AO es su salida analógica que irá a una de nuestras 5 entradas analógicas del Arduino (0-5V), recibiendo desde 0 hasta 1024.

A continuación os adjunto un sencillo ejemplo del código para poder usarlo:

int sensorPin = A0;
int sensorValue = 0;

void setup() {
       Serial.begin(9600);
}

void loop() {
       sensorValue = analogRead(sensorPin);
      Serial.print("sensor = " );
      Serial.println(sensorValue);
      delay(100);
}

Os ajunto la documentación (por cierto, parte en chino): Documentación.
Por último y como siempre, donde he aprendido todo esto en : wayengineer
Arduino Sensores Tutoriales

miércoles, 17 de julio de 2013

Grover, el robot solar que vigilará Groenlandia

El pequeño Grover es el robot autónomo diseñado por la NASA para explorar e investigar el inhóspito territorio helado.


Funciona con energía solar y cuenta con un radar de penetración terrestre para examinar las diferentes partes de la capa de hielo de Groenlandia. Su tarea será ayudar a los científicos a entender cómo y por qué la superficie de la región gana y pierde hielo.


El equipo que desarrolló Grover está liderado por la experta en glaciares Lora Koenig del Goddard Space Flight Center de la NASA, que llegó hasta el Summit Camp, el punto más alto de Groenlandia, el 6 de mayo de 2013, donde cargó y probó el radar del Rover. Y el 8 de mayo comenzaron las pruebas en el hielo, con vientos de hasta 37 km/h y temperaturas que alcanzaban los 30 ºC bajo cero.

Desarrollado por estudiantes

En el verano de 2012, temperaturas mucho más altas que las habituales derritieron el hielo superficial de Groenlandia en un 97%.


Los científicos del Goddard Space Flight Center de la NASA esperan que Grover les ayude a conocer mejor este tipo de procesos y a bajo costo. Hasta ahora, las mediciones se hacían con aviones o satélites.


Grover fue desarrollado entre 2010 y 2011 por estudiantes que participan en los campamentos de verano para ingenieros en el Centro Goddard.




Con energía solar

El robot coge la energía solar a través de los paneles de forma directa y de la luz solar reflejada por la capa de hielo.


El radar de penetración de tierra está alimentado por dos baterías recargables. Envía ondas de radio a la capa de hielo, las que rebotan con información sobre las características de las capas de nieve y hielo.



Referencia: lahora.com



Noticias

martes, 2 de julio de 2013

Creando la maquina de estados de navegación con Arduino (Proyecto UdeBot)

Bien ya casi esa lista la maquina de estados para la mavegación controlada desde la Raspberry Pi con mi Arduino.
El objetivo es que si requiero desde mi raspPi que navege recto, este lo comunica a mi Arduino y este navege siempre y cuando se cumplan unas premisas (impacto contra un objeto) en este caso el control de la navegación pasa a ser del Arduino.






Mis Robots

Toyota lanza su robot al espacio

La marca nipona participa en el desarrollo de un robot que saldrá con destino a la Estación Espacial Internacional. El lanzamiento de Kirobo está programado para el próximo 4 de agosto.




Se llama Kirobo y es el robot astronauta desarrollado por el fabricante automovilístico Toyota. La marca nipona participa en un curioso experimento que pretende establecer la primera conversación entre un humano y un robot en el espacio.
Este proyecto de comunicación verbal humanoide se ha llevado a cabo junto con las compañías RCAST, Robo Garage y TMC. RCAST y Robo Garage han trabajado en el desarrollo de los componentes del robot y la generación de movimiento, mientras que TMC se ha encargado de la función de reconocimiento de voz, y Dentsu se ha ocupado de crear el contenido de conversación, así como de gestionar todo el proyecto.
Si todo marcha sobre lo previsto, Kirobo despegará del Centro Espacial de Tanegashima a bordo de la nave espacial de carga Kounotori 4 el próximo 4 de agosto de 2013. En el módulo japonés de experimentación Kibo, el comandante y Kirobo participarán en el primer experimento de conversación realizado entre una persona y un robot en el espacio.
Calendario del proyecto (previsto)
4 de ago. 2013 El robot astronauta Kirobo parte hacia la EEI
ago.-sep. 2013 Kirobo habla por primera vez en el espacio
nov.-dic. 2013 El comandante Wakata llega a la EEI
dic. 2013 El comandante Wakata y Kirobo mantienen su primera conversación
mayo-junio 2014 El comandante Wakata abandona la EEI
dic. 2014 Kirobo vuelve a la Tierra
Referencia: caranddriverthef1.com



Noticias

martes, 25 de junio de 2013

Rosphere, robot español para la agricultura

Un grupo de investigadores españoles de la Universidad Politécnica de Madrid (Centro de Automatización y robótica) y CSIC acaba de anunciar el desarrollo de un robot esférico motorizado que es capaz de rodar de manera autónoma y está enfocado para misiones en entornos salvajes.




Un grupo de investigadores españoles de la Universidad Politécnica de Madrid (Centro de Automatización y robótica) y CSIC acaba de anunciar el desarrollo de un robot esférico motorizado que es capaz de rodar de manera autónoma y está enfocado para misiones en entornos salvajes.

Este robot se conoce como Rosphere y llega como solución a los múltiples problemas que entraña el uso de ruedas o patas para trabajar en entornos desconocidos ya que gracias a su diseño en forma de bola es muy estable y puede funcionar en prácticamente cualquier superficie incluyendo campo o arena.
La investigación está siendo realizada por Juan D. Hernández, Jorge Barrientos, Jaime del Cerro, Antonio Barrientos, David Sanz y un artículo ha sido publicado recientemente en la revista de divulgación científica Industrial Robot: An International Journal, Vol. 40 Iss: 1, pp.59 – 66 con el título “Moisture measurement in crops using spherical robots“.

Un robot pensado para moverse por zonas complicadas

El usar un tipo de robot esférico que tiene libertad de movimiento es un punto interesante a la hora de navegar por zonas desconocidas ya que no existe la cara superior o inferior del mismo, es decir, este robot no puede volcar, o no puede tener problemas con los que se podría encontrar el robot Curiosity que explora Marte.




El modo de funcionamiento es similar a cómo se mueve el juguete para hámsters en el que puedes meter al pequeño roedor en una bola para que se mueva por la casa. Cambias el centro de gravedad de la bola y ésta gira sobre si misma. Para ello hacen uso de un motor que desestabiliza el centro de masas actual del robot y que provoca el movimiento en dos ejes.

Este mecanismo se conoce como “mechatronic“ y es capaz de inducir movimiento de manera controlada como podemos ver en el siguiente vídeo. De hecho no sólo tiene un buen comportamiento en superficies duras como cemento sino también ofrece un buen rendimiento off-road, incluyendo la arena de la playa.




Los científicos españoles creen que Rosphere tendrá una gran funcionalidad agrícola ya que podrá ser usado como un sistema para controlar precisamente la humedad de los campos de manera precisa gracias a su unidad GPS y su sistema de giróscopos que le permite recorrer una zona perfectamente.

Referencia: xataka


Noticias

lunes, 17 de junio de 2013

Robot aspirador KobolVR100

Vorwerk es la empresa creadora de la famosa Thermomix, probablemente uno de los gadgets de cocina más conocidos en el mundo y que tiene tantos seguidores que sólo hace falta hacer una búsqueda en Google con los términos “recetas thermomix” para darse cuenta de lo que representa esta marca.


Pero no sólo de Thermomix vive Vorwerk, su segunda marca es Kobold, la línea de aspiradores compuesta por el Kobold VK140, que aspira y friega el suelo a la vez; el Kobold VC100, un aspirador de mano con batería de litio, y el Kobold VR100, un robot aspirador al que le hemos puesto a prueba durante las dos últimas semanas limpiando las oficinas (¡con moqueta!) de TPnet.




Tras sacarlo de la caja, poner en marcha el robot aspirador Kobold VR100 de Vorwerk sólo nos exige unos sencillos pasos:

Ubicar la base de carga apoyada en una pared y junto a un enchufe, dejando por lo menos medio metro de espacio libre delante y a los lados para que el robot aspirador pueda maniobrar sin problemas.
Montar el cepillo lateral que encontraremos en la caja. Debemos dar la vuelta al Kobold VR100 y ubicarlo fácilmente en el espacio reservado para él.
Cargar el robot aspirador usando su base.
Como véis, en muy poco tiempo tendremos nuestro Kobold VR100 listo para funcionar, aunque hay otros detalles a tener en cuenta que nos permitirán sacar mayor provecho a este dispositivo de limpieza.




Para empezar, en la caja encontraremos una banda magnética enrollada que permite delimitar los espacios sobre los que trabaja el Kobold VR100. Es muy útil por ejemplo si tenemos una escalera, ya que al situar esta banda magnética sobre el primer escalón (siempre de bajada, ya que obviamente de subida no hará falta), el robot aspirador nunca pasará sobre ella y seguirá con su tarea sin el peligro de caerse escaleras abajo.

Otro detalle es que el para ponerlo en marcha sólo hay que pulsar el botón “Start” (de color verde redondo). En cuanto la luz indicadora de funcionamiento se enciende en verde de forma continua, el robot aspirador estará completamente cargado y listo para funcionar. Por supuesto, se puede programar el horario de puesta en marcha de manera que el Kobold VR100 empiece a trabajar cuando se lo digamos sin tener que estar delante (muy útil para dejarlo con sus tareas mientras estamos fuera del lugar que va a limpiar).



Las ventajas de Kobold frente a otros robot aspiradores de la competencia es que su capacidad de succión se encuentra entre las más altas del mercado, tanto en alfombras y moquetas como en otro tipo de suelos, por lo que también es indicado en lugares con mascotas. Además, gracias a su láser de 360º es capaz de escanear toda la estancia y realizar un recorrido minucioso y metódico que garantice que no deja espacios sin limpiar.



Más detalles de interés es su forma en “D” y no en “O”, ya que de esta manera llega mejor a rincones y esquinas. Además, ya hemos mencionado antes que el segundo paso para poner el marcha el Kobold VR100 es montar el cepillo lateral, que junto con el cepillo giratorio central garantiza la recogida de la suciedad que se vaya encontrando.

Relacionado con su estudiada forma está su fabricación con material ABS anti-golpes para que no haga falta comprar accesorios adicionales si queremos que no dañe el mobiliario que se vaya encontrando mientras limpia. Y también tenemos su depósito de polvo, que obviamente no ofrece la capacidad de la bolsa de un aspirador tradicional, pero sí es bastante grande en relación a otros modelos de la competencia.




Otro detalle importante es que hablamos de un robot que, si empieza a quedarse sin batería mientras realiza las tareas de limpieza, vuelve automáticamente a la base para recargarse y, una vez repleto de energía, regresar al punto donde se quedó para seguir con su cometido. Además, su consumo mientras está en la base en modo stand-by es de 4,6W y su nivel de ruido ronda los 70 dBA, que es el ruido habitual de la mayoría de los aspiradores.




Sin lugar a dudas, hay mucha tecnología detrás de un dispositivo como el robot aspirador Kobold VR100 y eso se nota en los resultados. Eso sí, disfrutar de las ventajas de esta tecnología tiene un precio, que en el caso del modelo de Vorwerk es de 649 euros. Lo puedes adquirir a través de su tienda online.

Referencia: my computer


Empresas I+D Noticias

miércoles, 5 de junio de 2013

Kaspar, el robot de piel sensible

Cientificos europeos están desarrollando una tecnología de sensores que aumentará la interactividad de los automatas.


Científicos europeos han desarrollado nuevas tecnologías de sensores y una piel artificial que permitirán construir robots mucho más "sensibles". De este modo se obtendrán mejores plataformas robóticas que un día podrían aplicarse en entornos industriales, sanitarios e incluso domésticos.Estas nuevas capacidades, sumadas a un sistema de producción de robots dotados de sensibilidad táctil, conducirán a la construcción de robots que realicen funciones más precisas en entornos sin restricciones y puedan comunicarse y cooperar mejor entre sí y con humanos.

A través del proyecto financiado con fondos europeos "Skin-based technologies and capabilities for safe, autonomous and interactive robots" (ROBOSKIN) se han desarrollado nuevas tecnologías de sensores y sistemas de gestión que proporcionan a los robots un sentido artificial del tacto, una cualidad aún no perfeccionada en el ámbito de la robótica.

Según los socios responsables de la investigación, procedentes de Italia, Suiza y Reino Unido, era importante crear mecanismos cognitivos basados en una retroalimentación táctil (es decir, el sentido del tacto) y los comportamientos asociados para lograr que las interacciones entre humanos y robots sean seguras y efectivas en las aplicaciones futuras contempladas.

El diseño de la nueva piel artificial se basa en gran medida en la piel real, que cuenta con una red diminuta de nervios que sienten o perciben cambios como de caliente a frío y de suave a áspero y viceversa. Los sensores electrónicos de la piel artificial recogen "datos táctiles" y los procesan con un programa informático cargado previamente y que incluye algunos comportamientos robóticos básicos, los cuales pueden ampliarse con el tiempo.

Según explica el coordinador del proyecto, el profesor Giorgio Cannata de la Universidad de Génova (Italia), en Cordis: "Nos decantamos por la programación mediada por la demostración y el juego asistido por el robot para que los robots aprendan sobre la marcha a medida que sienten, realizan acciones e interactúan. Tuvimos que generar cierto grado de "consciencia" en los robots para ayudarles a reaccionar a la información táctil y al contacto físico con el mundo exterior".

Kaspar, el robot amistoso

Sin embargo, la cognición robótica es extremadamente compleja, por lo que el equipo de ROBOSKIN empezó marcándose objetivos modestos en pruebas de laboratorio consistentes en clasificar tipos o grados de tacto. Crearon un mapa geométrico por medio de un contacto continuo entre el robot de prueba y el entorno para así construir una "representación corporal", es decir, parámetros mediante los cuales el robot puede asimilar datos y transformarlos en comportamientos.

Por otra parte, fuera del laboratorio, se instalaron parches sensores de ROBOSKIN en puntos de contacto comunes (pies, mejillas, brazos) repartidos por el robot KASPAR de la Universidad de Hertfordshire, un robot humanoide diseñado para facilitar la comunicación a niños con autismo.

"Gracias a nuestros sensores, el robot podía sentir o detectar el contacto, y los datos recabados constituyeron una parte importante de la clasificación de contactos que realizamos, para distinguir por ejemplo entre un contacto deseado y otro no deseado", explica el profesor Cannata.

Los científicos participantes en ROBOSKIN evaluaron varias tecnologías, desde los sensores capacitivos más básicos integrados en tecnologías de detección actuales hasta los transductores de mayor rendimiento instalados en ciertos materiales piezoeléctricos y semiconductores orgánicos flexibles.

"A corto plazo seremos testigos de un uso cada vez más profuso de materiales piezoeléctricos, los cuales son capaces de actuar como sensores puesto que reaccionan a cambios inducidos por el contacto con una fuerza externa", aseguró el profesor Cannata. Pero en su opinión lo que causará un cambio más radical del sector serán los sensores que empleen semiconductores orgánicos, ya que permitirán imprimir los chips sobre distintos materiales orgánicos, como piel falsa o materiales flexibles, y a largo plazo resultarán mucho más económicos de producir a gran escala.

Promoción de los prototipos

El período de financiación del proyecto ROBOSKIN concluyó el pasado verano, pero sus investigadores se encuentran muy activos en la divulgación de sus hallazgos a través de canales científicos, por ejemplo con artículos publicados en IEEE Xplorey Science Direct, y también con solicitudes de interés para compartir sus prototipos con proyectos científicos no comerciales.

"Aún nos encontramos en una etapa de demostración precomercial, pero indudablemente la última versión de nuestros sensores táctiles posee un potencial mayor en la industria, dado que las fábricas buscan formas seguras y rentables económicamente de utilizar robots capaces de mantener un contacto más estrecho con sus operarios humanos", explica el coordinador.

El equipo del proyecto, que ha patentado algunas partes de su trabajo, destaca que ponen sus prototipos a disposición de otras investigaciones científicas. La tecnología de ROBOSKIN ya se ha integrado en iCub, la plataforma de robótica abierta del Instituto Italiano de Tecnología.

"La clave consistió en asegurarnos de que nuestras tecnologías básicas fueran compatibles con distintas plataformas robóticas que podrían evolucionar en este campo, inmerso en un vertiginoso devenir", señala el profesor Cannata. "Y eso es justamente lo que hemos conseguido".

El proyecto ROBOSKIN recibió 3,5 millones de euros (de un presupuesto total de 4,7 millones de euros) para investigación por medio del Séptimo Programa Marco (7PM) de la Unión Europea.

Referencia:larazon


Noticias

sábado, 25 de mayo de 2013

El robot que cura epilepsias incurables

El Hospital del Mar interviene a cinco pacientes con esta nueva técnica, pionera en España.


Nora sufrió durante once años traumáticos ataques epilépticos pero desde hace cuatro meses no ha tenido ni una crisis. Es uno de los cerca de 60.000 pacientes que hasta ahora estaban condenados a padecer la enfermedad durante toda la vida y una de las cinco pacientes operadas de epilepsia en el Hospital del Mar de Barcelona gracias a un nuevo robot, único en España, que ayuda a intervenir a pacientes que hasta ahora no podían pasar por el quirófano.

Nora, que llegó de Bolivia hace seis años, aún no se acostumbra a su nueva realidad después de años de padecer unas tres crisis al mes. El robot que le ha devuelto a su vida de antes se llama ROSA y sirve para delimitar en el cerebro dónde está el foco en el que se originan las descargas eléctricas quecausan las crisis epilépticas, según explicó Gerand Conesa, jefe del servicio de Neurocirugía del hospital, y Rodrigo Rocamora, responsable de la unidad de Epilepsia del centro, informa Efe.

Un modelo virtual del cerebro
Tras muchas pruebas diagnósticas, a Nora se le hizo con un ordenador un modelo virtual de su cerebro y se diseñó una trayectoria en tres dimensiones para ver por dónde se debían colocar los electrodos del robot ROSA, a través de una trepanación, para evitar tocar arterias y zonas sensibles durante la cirugía. Después se llevó a la paciente al quirófano, se le hizo un reconocimiento facial con un láser y se le ajustó el modelo virtual 3D a su realidad, para que el robot pudiera colocar las guías para fijar los electrodos y estudiar su actividad cerebral.

Con los electrodos se hicieron registros de su actividad durante un par de semanas, una especie de biopsia funcional de lo que ocurre dentro de su cerebro, y se estimuló la zona para ver si había funciones elementales. Con los datos del robot ROSA se mapeó la zona de las crisis y se estudió la posibilidad de quitar las lesiones, y con todos estos datos los médicos decidieron desde dónde se abordaba y la cirugía que se aplicaba.

El doctor Rodrígo Rocamora, responsable de la Unidad de Epilepsia del Hospital del Mar de Barcelona, destaca en declaraciones a ABC la importancia de esta nueva técnica que «permite delimitar con precisión extrema y de forma menos invasiva los focos de epilepsia en el cerebro». «El robot le indica al neurocirujano la trayectoria por la que tiene que ir el electrodo y la profundidad del corte», añade Rocamora.

Cuando falla la medicación
Destaca, asimismo, que con esta técnica se pueden curar un 70% de las epilepsias temporales, que se originan en los lóbulos temporales, y que hasta ahora no tenían solución. Actualmente, sólo se operan enfermos que no responden al tratamiento farmacológico, el 30 % del total, pero muchos tampoco son operables porque hasta ahora no se podía localizar con precisión el origen del foco que había que extraer.

La epilepsia es una enfermedad que padece entre el 0,5 y el 1 % de la población, unas 400.000 personas, que se origina por descargas eléctricas que en el cerebro activan neuronas de forma repentina.

Referencia: abc



Noticias

martes, 14 de mayo de 2013

Conferencia Internacional de Robótica y Automatización (ICRA)


Ayer se inauguró en Karlsruhe, Alemania, la Conferencia Internacional de Robótica y Automatización (ICRA), en la que se muestran los principales proyectos en este campo.

Uno de los atractivos fue el robot iCub, desarrollado por el Instituto Italiano de Tecnología, que hizo una demostración de sus habilidades.

Otro de los robots expuestos fue el HoLLiE, desarrollado por el Centro de Investigación Alemán FZI.

La conferencia de robótica se desarrolla del 6 al 10 de mayo.

Noticias

miércoles, 8 de mayo de 2013

Hacen volar a un robot del tamaño de una mosca



Investigadores estadounidenses consiguieron hacer volar a un robot del tamaño de una mosca, un dispositivo que podría quizá un día ser utilizado en misiones de observación o de socorro en lugares de difícil acceso.
El robot-mosca está fabricado con fibras de carbono, pesa una fracción de un gramo y está dotado de «músculos» electrónicos capaces de aletear unas 120 veces por segundo, precisan los científicos, cuyo invento está detallado en la revista estadounidense Science.

Este mini-robot volador es el resultado de 12 años de investigación y de avances técnicos e innovación en el campo de la microfabricación, así como en los sistemas de control de miniaturas desarrolladas en los últimos años por investigadores de la Universidad de Harvard (Massachusetts).Se trata del primer robot de este tipo y para fabricarlo fueron necesarias nuevas técnicas de propulsión, de control y producción, señalaron los investigadores.
Para las alas, recurrieron a microestructuras compuestas de los llamados materiales piezoeléctricos, capaces de convertir una carga eléctrica en un movimiento mecánico. El robot-mosca no cuenta con una fuente de energía autónoma, ni de control integrado, y está unido a un hilo que transmite la electricidad necesaria para accionar sus alas y los comandos de un ordenador para las maniobras de vuelo. Su consumo eléctrico se estima en torno a 10 milivatios, equivalente al que utilizan los insectos de ese tamaño.
Los avances ofrecen un nuevo medio de estudiar la mecánica del batido de alas y de control a escala de los insectos. Podría servir a los investigadores en futuros estudios sobre motores miniaturizados y nuevos captores para ayudar especialmente a insectos polinizadores, como las abejas.
Las moscas son capaces de efectuar sofisticadas maniobras en vuelo para, por ejemplo, evitar el golpe de un matamoscas o posarse en una planta cuando sopla el viento. «Las moscas efectúan maniobras aéreas en la naturaleza que son sorprendentes, y eso dentro de un minúsculo cerebro», indicó Sawyer Fuller, investigador de la Universidad de Harvard, uno de los coautores que ha estudiado sobre todo el vuelo de las moscas en el viento.
«Sus capacidades superan lo que nosotros podemos hacer con nuestro robot y nos encantaría comprender mejor su biología para aplicarla a nuestra investigación», explicó. Según los autores, el proyecto proporciona una motivación común a los investigadores e ingenieros de la Universidad de Harvard para desarrollar baterías más pequeñas y concebir sistemas de control más eficaces, así como para crear materiales más resistentes y ligeros.
Referencia: lavozdegalicia


Noticias

El regreso del robot Lunokhod 1, que fue dado por perdido hace 40 años


El primer vehículo con control remoto que pisó la Luna, en 1970, el robot soviético `Lunokhod 1, y que se dio por perdido casi un año después de su llegada, fue contactado, y recuperado con éxito el retrorreflector láser que posee, por científicos franceses.

La ubicación final de la última misión del `Lunokhod 1` fue incierta hasta 2010.

Sin embargo, gracias a las imágenes obtenidas por la Nasa con el Lunar Reconnaissance Orbiter (LRO), el robot fue detectado a 2,3 kilómetros al norte de su punto de aterrizaje. Ahora, los investigadores galos también consiguieron ponerlo en marcha nuevamente, 40 años después.

El `Lunokhod 1`, fue transportado al satélite natural por la sonda rusa Luna 17, el 17 de noviembre de 1970. El pequeño vehículo poseía ocho ruedas, tenía una longitud de 2,22 metros y 1,60 metros de ancho. Pesaba 756 kilogramos.

Mar de las Lluvias. Teledirigido desde la Tierra, exploró ampliamente la zona conocida como Mar de las Lluvias, realizando en casi un año de actividad más de 10 kilómetros de recorrido y transmitiendo a la Tierra más de 20.000 imágenes y 200 vistas panorámicas.

Durante 10 meses lunares, el robot obedeció las órdenes dadas por el equipo de Tierra, superando con creces los 90 días terrestres que se estimaron de vida útil. En previsión de que no superara la undécima noche lunar, se estacionó al `Lunokhod 1` en una zona plana para que, una vez agotada su vida útil, pudiera servir como plataforma del reflector láser que se dejó apuntando al planeta. Aunque, se desconocen con exactitud los motivos, no pudo continuar funcionando.

Era parte importante de esta misión la utilización del reflector láser diseñado y construido por especialistas franceses, que permitieron obtener excelentes medidas de la distancia entre la Tierra y la Luna con una exactitud 100 veces superior a la de los métodos tradicionales de radio localización.

En el olvido. En los últimos 40 años nadie se preocupó por contactar de nuevo con este robot -que incluso fue subastado en 1993- hasta que un grupo de científicos galos, del Observatorio Côte d`Azur, decidieron intentarlo.

Finalmente, en marzo de este año recibieron señales de retorno desde el reflector `Lunokhod 1`. Los resultados se obtuvieron más de tres noches, indicó uno de los autores de esta iniciativa, Jean Marie Torre.

Los expertos barajaban varias posibilidades acerca de la falta de funcionamiento del reflector que, de acuerdo a lo señalado por Torre, puede haber sido un exceso de polvo lunar, la cubierta pudo haberse cerrado o que el vehículo no haya sido estacionado con vista a la Tierra tal y como se creía, según despacho de Europa Press.

"Al final, sin embargo era más un problema de falta de confianza que un problema técnico", finalizó el científico.

Referencia: la voz

Noticias

viernes, 19 de abril de 2013

Construir una impresora 3D


Ya se que una impresora 3D no es estrictamente un robot, pero algo tiene.

Durante los proximos meses iremos describiendo poco a poco como construirte tu propia impresora 3D.

Espero que disfruteis.

Tutoriales

martes, 9 de abril de 2013

Robot asturiano terapeutico


Es mucho más que un juguete. Es una herramienta terapéutica. Es mucho más que un robot para convertirse en una especie de amigo que guía, estimula y acompaña a personas mayores, adaptándose de forma «inteligente» a las capacidades cognitivas y sensoriales de cada usuario. «Eldertoy» nació en Asturias, diseñado por la empresa Treelogic, con sede en el parque tecnológico de Llanera, y es un prototipo que se está utilizando a modo de prueba y con notable éxito en un hospital catalán.


A simple vista, «Eldertoy» parece lo más sencillo del mundo: algo así como un orondo cojín con una pantalla en la barriga. Tiene ojos, nariz y boca, y dos brazos que se mueven. Todo ello de color morado. Pero tras esta sencilla carcasa hay dos años de trabajo en el mundo de la robótica social.


El robot es capaz de detectar los estados de ánimo del usuario y responder a sus capacidades. Propone juegos, pide que lo acaricien o que lo abracen, es capaz de modular automáticamente el volumen de su voz. Si es ignorado, «Eldertoy» reduce paulatinamente su actividad.


Cuando Treelogic y la Fundación Sant Antoni Abat (ABAT) se pusieron de acuerdo para probar el robot en el hospital del Consorci Sanitari del Garraf en la localidad barcelonesa de Vilanova i la Geltrú, pocos podían sospechar el éxito. Ester González, neuropsicóloga de la Fundación, asegura que «no sólo todos los ancianos lo han aceptado sino que han establecido con él vínculos afectivos».


«Nada es aleatorio en Eldertoy» señala el director de I+D de Treelogic, Sergio García Caso. Tampoco el color de este «cojín animado» con pantalla táctil que ha demostrado que ancianos con problemas serios cognitivos responden y se interrelacionan con la máquina. «El reto es plantear el estímulo adecuado a la capacidad de cada persona», agrega García Caso. Para los ancianos con mayores dificultades de uso de pantalla «Eldertoy» -que fue físicamente creado en el Instituto Tecnológico del Juguete, en Alicante- es capaz de mantener la atención del usuario; por ejemplo, haciéndolo trabajar su orientación especial, pidiendo que lo coloquen en una determinada posición o que le cojan en brazos. «Es impresionante comprobar como reaccionan ante "Eldertoy" ancianos que no respondían prácticamente a ningún otro tipo de estímulo».


El robot es de algún modo la alternativa digital a los animales de compañía. «Con los animales hemos tenido muy buenos resultados, pero es difícil introducirlos en un entorno hospitalario», explica Ester González Aguado. «Aquí el único inconveniente es que al robot hay que lavarlo a menudo por la cantidad de besos que recibe», dice Sergio Fínez, el coordinador técnico del proyecto desde Asturias.


«Eldertoy» fue probado por 36 ancianos usuarios del hospital. Con esa experiencia y antes de su comercialización, los asturianos de Treelogic rediseñarán detalles de su aspecto físico y su comportamiento, a la vez que incluirán más prestaciones. Tras poco más de un mes de prueba, saben lo principal: el robot asturiano se hace querer.

Referencia: la nueva españa


sábado, 30 de marzo de 2013

Tutorial : Raspberry Pi con adaptador de Arduino


Bien hemos comprado una RaspBerry Pi, y después de algunas pruebas iniciales hemos sacado algunas cosas claras.

 1º Que una vez que coges el concepto de como hacerlo funcionar es sencillo (aunque mucho mas engorroso que cuando lo hacemos normalmente, seguramente acabe creando un script para que lo haga solo).
2º Dentro del startx, la potencia de la RaspBerry se viene abajo, así que no recomiendo entrar.

 A continuación defino la RaspBerry usada y como se ha compilado y usado.


  La Raspberry Pi que he comprado es la mas potente de las 2, con una tarjeta SD de 8 gigas de clase 6 (seguramente acabe comprando una clase 10, a ver si gano un poco de velocidad de lectura). 

El adaptado usado para poder trabajar con los componentes que tengo de Arduino es el modulo de conexion de Cooking-hacks . (40€)

Antes de nada vamos a configurar la RaspBerry para poder usarla.
1)  Hacer una copia de seguridad de nuestro boot:
     sudo cp /boot/cmdline.txt /boot/cmdline_backup.txt
2)  Editamos el archivo: (aquí podéis usar el vi o el nano)
     sudo nano/boot/cmdline.txt
3)  Y borramos las siguientes partes: (Si no hay un $, no os preocupeis)
      dwc_otg.lpm_enable=0
      console=tty1 $
4)  Reiniciamos la RaspBerry
     sudo reboot


Lo siguiente para compilar nuestro programa serán los siguientes:
1)   Hay que descargar las librerías que encontrareis en el siguiente link: Libreria 

2)   Compilar la librería descargada, vamos a la carpeta donde la hayamos descargado, la descomprimís y por consola ponemos:
       g++ -c arduPi.cpp -o arduPi.o

3)   A continuación compilamos nuestro programa:
       g++ -lrt -lpthread miPrograma.cpp arduPi.o -o nombreProgramaQueQueramos

4)   Lanzamos el programa:
      sudo ./nombreProgramaQueQueramos
     
Como veis es un poco cansino hacer eso, por eso en cuanto tenga el script os lo subiré para que no sean tan pesado esto.

El tutorial completo más detallado lo podéis encontrar aqui: Cooking-hacks 

Bueno eso es todo, iré probando todo e iré poniendo nuevos ejemplos. 
Disfrutadlo. 
raspberry pi Tutoriales

martes, 26 de marzo de 2013

Nueva serpiente robótica



Hay muchas escenas de desastre donde los grupos de rescate no se atreven a pisar, aunque hayan personas que necesiten ayuda. Un edificio colapsado es una trampa mortal, también para los servicios de rescate, cuyo más mínimo movimiento equivocado puede desencadenar una avalancha que los entierre junto a quienes vinieron a rescatar.
La Serpiente Robot que ha sido desarrollada por el Technion, Israel, es un robot en miniatura que se desliza en zonas de desastre de cualquier tipo. Es lo suficientemente ligera como para no causar daños y, equipadas con cámaras y sensores, puede trazar un camino para que los servicios de rescate puedan entrar sin dañar la estructura, así como determinar con exactitud dónde están los sobrevivientes.
El sistema puede ser utilizado en cualquier situación y proveer la información previa acerca de una situación que necesita preparativos especiales para que los equipos de rescate logren hacer su trabajo.
La serpiente robótica podría ser útil en la guerra urbana y subterránea, ya que permite la inspección y vigilancia de los sistemas de alcantarillado, túneles estrechos, o alcantarillas, inaccesibles por otros sistemas.
Otra ventaja de este tipo de robots es el hecho de que todo el robot actúa como brazo altamente flexible que tiene múltiples grados de libertad (DOF).
La serpiente es altamente maniobrable ya que puede maniobrar a través de terrenos difíciles, hacerlo sigilosamente dentro de edificios, y usar sus sensores para explorar sus interiores.
El robot es capaz de llevar sensores desechables que puedan ser separados y dejados en puntos estratégicos para controlar la actividad en el interior de edificios. Cuando la actividad dentro de edificios resulta sospechosa y es detectada, el robot sigiloso será capaz de identificar objetivos específicos mientras permanece virtualmente desapercibida, y podrá dejar tras de si cargas explosivas temporizadas.
Como sensores primarios, el robot está equipado con una cámara termográfica, cámaras en miniatura o de poca luz sensores de TV y, posiblemente, escáneres láser que funcionan como radar láser (LADAR).
Como cada uno de los enlaces está integrado con cámaras, todo el grupo es redundante, tiene vista múltiple de 360 grados de sus alrededores, con cartografía de zonas de interior y subterráneas por radar láser.
A diferencia de la serpiente anterior que tiene un DOF único por cada enlace, requiriendo 16 eslabones para formar la flexibilidad necesaria y capacidad de maniobra, cada uno de los enlaces de nuevo robot tiene dos articulaciones, proporcionando 2 DOF por enlace, por lo tanto, el número de enlaces por ‘robot serpiente puede reducirse a ocho.
Los motores integrados en el nuevo diseño tienen un momento significativamente más alto. Cada enlace está equipado con su propio sistema inercial, que informa sobre su posición relativa (a otros elementos), lo que permite el movimiento automático de maniobra y control para determinar la posición de todo el robot, y determinar el próximo movimiento para llevar al robot más cerca de su objetivo, a través de terreno difícil y a lo largo de la trayectoria de movimiento seleccionado para dicho movimiento.
Este prototipo que pesa 7 kilogramos utiliza elementos de aluminio para satisfacer el nivel de robustez requerida para la operación de campo. Sin embargo, para los modelos de producción investigadores del Technion esperan que el peso se reducirá a la mitad, por debajo de 4 kilogramos, tanto en las partes de aluminio con materiales compuestos duraderos.
Referencia: blog.periodistadigital.com


sábado, 23 de marzo de 2013

Tutorial: Sensor de proximidad por ultrasonidos LV-EZ3


El uso de los ultrasonidos de este tipo es sencillo, solo usaremos las siguientes salidas:
  1. GND (tierra)
  2. +5 ( 5v)
  3. AN ( analógica)


Código:
void setup()
{
    Serial.begin(9600);
}
void loop()
{   
   int analogValue1 = analogRead(0);
   Serial.print("ulstra sonido: ");
   Serial.println(analogValue1);
   delay(100);
}
 

Como ya vimos en el tutorial anterior de como usar la pantalla LCD de Nokia 5110, ahora vamos a ampliarlo y combinaremos la pantalla LCD con el sensor de proximidad por ultrasonidos LV-EZ3.

 void setup(void)
{
  LcdInitialise();
  LcdClear();
  drawBox();
}

void loop(void)
{
    int x = 0;
    int inches = 0;
    int cm=0;
    x = analogRead(0);
    inches = ((x*0.0049)/0.0098);
    cm= inches * 2.54;
  
    gotoXY(7,1);
    char buf[12];
    LcdString(itoa(cm, buf, 10));
 
   gotoXY(30,1);
   LcdString("cm");
    
   delay(200);
}


Sensores Tutoriales

Contacto

Para contactar con nosotros, envia tu email a:

udelunar@gmail.com.

Muchas gracias :)
Contacto

Tutorial: Arduino y pantalla LCD Nokia 5110

Hoy vamos a tener de tutorial como usar nuestra pantalla LCD de Nokia 5110 y mostrar el texto y los datos enviados desde nuestro Arduino Uno.



Primero necesitamos identificar los pines:
|-------------------------------------------------------------------|
|     1    |   2   |  3   |   4    |    5    |     6   |     7       |     8    |
|-------------------------------------------------------------------|
|  RST |  CE | DC | DIN | CLK | VCC | LIGHT | GND |
|-------------------------------------------------------------------|

Una vez identificados tenemos que conectarlos a las entradas digitales de acuerdo a como lo especifiquemos en nuestro código en mi caso tal y como lo he descrito arriba.

Usaremos desde el pin 1 hasta el 5, el pin 7 no lo usaremos  (light) y el VCC son 3,3v y el GND al cualquiera de nuestros GND.


Nota importante:
La instrucción  LcdString, solo admite char*, así que si necesitamos enviar un int, tendremos que convertirlo. ¿Cómo?, bien la forma que yo he usado ( y espero que haya otra mejor) es creando un buffer y con la instrucción atoa introducir el entero en el buffer y pintarlo.
int numero = 20;
char buf[12];
LcdString(itoa(numero , buf, 10));

El código para pintar en el lcd sera el siguiente (espero hacerlo bien y crear una librería, pero por ahora....):
// The pins to use on the arduino
#define PIN_SCE   2
#define PIN_RESET 1
#define PIN_DC    3
#define PIN_SDIN  4
#define PIN_SCLK  5

// COnfiguration for the LCD
#define LCD_C     LOW
#define LCD_D     HIGH
#define LCD_CMD   0

// Size of the LCD
#define LCD_X     84
#define LCD_Y     48

int scrollPosition = -10;

static const byte ASCII[][5] =
{
 {0x00, 0x00, 0x00, 0x00, 0x00} // 20
,{0x00, 0x00, 0x5f, 0x00, 0x00} // 21 !
,{0x00, 0x07, 0x00, 0x07, 0x00} // 22 "
,{0x14, 0x7f, 0x14, 0x7f, 0x14} // 23 #
,{0x24, 0x2a, 0x7f, 0x2a, 0x12} // 24 $
,{0x23, 0x13, 0x08, 0x64, 0x62} // 25 %
,{0x36, 0x49, 0x55, 0x22, 0x50} // 26 &
,{0x00, 0x05, 0x03, 0x00, 0x00} // 27 '
,{0x00, 0x1c, 0x22, 0x41, 0x00} // 28 (
,{0x00, 0x41, 0x22, 0x1c, 0x00} // 29 )
,{0x14, 0x08, 0x3e, 0x08, 0x14} // 2a *
,{0x08, 0x08, 0x3e, 0x08, 0x08} // 2b +
,{0x00, 0x50, 0x30, 0x00, 0x00} // 2c ,
,{0x08, 0x08, 0x08, 0x08, 0x08} // 2d -
,{0x00, 0x60, 0x60, 0x00, 0x00} // 2e .
,{0x20, 0x10, 0x08, 0x04, 0x02} // 2f /
,{0x3e, 0x51, 0x49, 0x45, 0x3e} // 30 0
,{0x00, 0x42, 0x7f, 0x40, 0x00} // 31 1
,{0x42, 0x61, 0x51, 0x49, 0x46} // 32 2
,{0x21, 0x41, 0x45, 0x4b, 0x31} // 33 3
,{0x18, 0x14, 0x12, 0x7f, 0x10} // 34 4
,{0x27, 0x45, 0x45, 0x45, 0x39} // 35 5
,{0x3c, 0x4a, 0x49, 0x49, 0x30} // 36 6
,{0x01, 0x71, 0x09, 0x05, 0x03} // 37 7
,{0x36, 0x49, 0x49, 0x49, 0x36} // 38 8
,{0x06, 0x49, 0x49, 0x29, 0x1e} // 39 9
,{0x00, 0x36, 0x36, 0x00, 0x00} // 3a :
,{0x00, 0x56, 0x36, 0x00, 0x00} // 3b ;
,{0x08, 0x14, 0x22, 0x41, 0x00} // 3c <
,{0x14, 0x14, 0x14, 0x14, 0x14} // 3d =
,{0x00, 0x41, 0x22, 0x14, 0x08} // 3e >
,{0x02, 0x01, 0x51, 0x09, 0x06} // 3f ?
,{0x32, 0x49, 0x79, 0x41, 0x3e} // 40 @
,{0x7e, 0x11, 0x11, 0x11, 0x7e} // 41 A
,{0x7f, 0x49, 0x49, 0x49, 0x36} // 42 B
,{0x3e, 0x41, 0x41, 0x41, 0x22} // 43 C
,{0x7f, 0x41, 0x41, 0x22, 0x1c} // 44 D
,{0x7f, 0x49, 0x49, 0x49, 0x41} // 45 E
,{0x7f, 0x09, 0x09, 0x09, 0x01} // 46 F
,{0x3e, 0x41, 0x49, 0x49, 0x7a} // 47 G
,{0x7f, 0x08, 0x08, 0x08, 0x7f} // 48 H
,{0x00, 0x41, 0x7f, 0x41, 0x00} // 49 I
,{0x20, 0x40, 0x41, 0x3f, 0x01} // 4a J
,{0x7f, 0x08, 0x14, 0x22, 0x41} // 4b K
,{0x7f, 0x40, 0x40, 0x40, 0x40} // 4c L
,{0x7f, 0x02, 0x0c, 0x02, 0x7f} // 4d M
,{0x7f, 0x04, 0x08, 0x10, 0x7f} // 4e N
,{0x3e, 0x41, 0x41, 0x41, 0x3e} // 4f O
,{0x7f, 0x09, 0x09, 0x09, 0x06} // 50 P
,{0x3e, 0x41, 0x51, 0x21, 0x5e} // 51 Q
,{0x7f, 0x09, 0x19, 0x29, 0x46} // 52 R
,{0x46, 0x49, 0x49, 0x49, 0x31} // 53 S
,{0x01, 0x01, 0x7f, 0x01, 0x01} // 54 T
,{0x3f, 0x40, 0x40, 0x40, 0x3f} // 55 U
,{0x1f, 0x20, 0x40, 0x20, 0x1f} // 56 V
,{0x3f, 0x40, 0x38, 0x40, 0x3f} // 57 W
,{0x63, 0x14, 0x08, 0x14, 0x63} // 58 X
,{0x07, 0x08, 0x70, 0x08, 0x07} // 59 Y
,{0x61, 0x51, 0x49, 0x45, 0x43} // 5a Z
,{0x00, 0x7f, 0x41, 0x41, 0x00} // 5b [
,{0x02, 0x04, 0x08, 0x10, 0x20} // 5c ¥
,{0x00, 0x41, 0x41, 0x7f, 0x00} // 5d ]
,{0x04, 0x02, 0x01, 0x02, 0x04} // 5e ^
,{0x40, 0x40, 0x40, 0x40, 0x40} // 5f _
,{0x00, 0x01, 0x02, 0x04, 0x00} // 60 `
,{0x20, 0x54, 0x54, 0x54, 0x78} // 61 a
,{0x7f, 0x48, 0x44, 0x44, 0x38} // 62 b
,{0x38, 0x44, 0x44, 0x44, 0x20} // 63 c
,{0x38, 0x44, 0x44, 0x48, 0x7f} // 64 d
,{0x38, 0x54, 0x54, 0x54, 0x18} // 65 e
,{0x08, 0x7e, 0x09, 0x01, 0x02} // 66 f
,{0x0c, 0x52, 0x52, 0x52, 0x3e} // 67 g
,{0x7f, 0x08, 0x04, 0x04, 0x78} // 68 h
,{0x00, 0x44, 0x7d, 0x40, 0x00} // 69 i
,{0x20, 0x40, 0x44, 0x3d, 0x00} // 6a j
,{0x7f, 0x10, 0x28, 0x44, 0x00} // 6b k
,{0x00, 0x41, 0x7f, 0x40, 0x00} // 6c l
,{0x7c, 0x04, 0x18, 0x04, 0x78} // 6d m
,{0x7c, 0x08, 0x04, 0x04, 0x78} // 6e n
,{0x38, 0x44, 0x44, 0x44, 0x38} // 6f o
,{0x7c, 0x14, 0x14, 0x14, 0x08} // 70 p
,{0x08, 0x14, 0x14, 0x18, 0x7c} // 71 q
,{0x7c, 0x08, 0x04, 0x04, 0x08} // 72 r
,{0x48, 0x54, 0x54, 0x54, 0x20} // 73 s
,{0x04, 0x3f, 0x44, 0x40, 0x20} // 74 t
,{0x3c, 0x40, 0x40, 0x20, 0x7c} // 75 u
,{0x1c, 0x20, 0x40, 0x20, 0x1c} // 76 v
,{0x3c, 0x40, 0x30, 0x40, 0x3c} // 77 w
,{0x44, 0x28, 0x10, 0x28, 0x44} // 78 x
,{0x0c, 0x50, 0x50, 0x50, 0x3c} // 79 y
,{0x44, 0x64, 0x54, 0x4c, 0x44} // 7a z
,{0x00, 0x08, 0x36, 0x41, 0x00} // 7b {
,{0x00, 0x00, 0x7f, 0x00, 0x00} // 7c |
,{0x00, 0x41, 0x36, 0x08, 0x00} // 7d }
,{0x10, 0x08, 0x08, 0x10, 0x08} // 7e ←
,{0x00, 0x06, 0x09, 0x09, 0x06} // 7f →
};

void LcdCharacter(char character)
{
  LcdWrite(LCD_D, 0x00);
  for (int index = 0; index < 5; index++)
  {
    LcdWrite(LCD_D, ASCII[character - 0x20][index]);
  }
  LcdWrite(LCD_D, 0x00);
}

void LcdClear(void)
{
  for (int index = 0; index < LCD_X * LCD_Y / 8; index++)
  {
    LcdWrite(LCD_D, 0x00);
  }
}

void LcdInitialise(void)
{
  pinMode(PIN_SCE,   OUTPUT);
  pinMode(PIN_RESET, OUTPUT);
  pinMode(PIN_DC,    OUTPUT);
  pinMode(PIN_SDIN,  OUTPUT);
  pinMode(PIN_SCLK,  OUTPUT);

  digitalWrite(PIN_RESET, LOW);
  digitalWrite(PIN_RESET, HIGH);

  LcdWrite(LCD_CMD, 0x21);  // LCD Extended Commands.
  LcdWrite(LCD_CMD, 0xBf);  // Set LCD Vop (Contrast). //B1
  LcdWrite(LCD_CMD, 0x04);  // Set Temp coefficent. //0x04
  LcdWrite(LCD_CMD, 0x14);  // LCD bias mode 1:48. //0x13
  LcdWrite(LCD_CMD, 0x0C);  // LCD in normal mode. 0x0d for inverse
  LcdWrite(LCD_C, 0x20);
  LcdWrite(LCD_C, 0x0C);
}

void LcdString(char *characters)
{
  while (*characters)
  {
    LcdCharacter(*characters++);
  }
}

void LcdWrite(byte dc, byte data)
{
  digitalWrite(PIN_DC, dc);
  digitalWrite(PIN_SCE, LOW);
  shiftOut(PIN_SDIN, PIN_SCLK, MSBFIRST, data);
  digitalWrite(PIN_SCE, HIGH);
}

/**
 * gotoXY routine to position cursor
 * x - range: 0 to 84
 * y - range: 0 to 5
 */
void gotoXY(int x, int y)
{
  LcdWrite( 0, 0x80 | x);  // Column.
  LcdWrite( 0, 0x40 | y);  // Row.
}

void drawBox(void)
{
  int j;
  for(j = 0; j < 84; j++) // top
  {
    gotoXY(j, 0);
    LcdWrite(1, 0x01);
  }    

  for(j = 0; j < 84; j++) //Bottom
  {
    gotoXY(j, 5);
    LcdWrite(1, 0x80);
  }    

  for(j = 0; j < 6; j++) // Right
  {
    gotoXY(83, j);
    LcdWrite(1, 0xff);
  }    

  for(j = 0; j < 6; j++) // Left
  {
    gotoXY(0, j);
    LcdWrite(1, 0xff);
  }
}

void Scroll(String message)
{
  for (int i = scrollPosition; i < scrollPosition + 11; i++)
  {
    if ((i >= message.length()) || (i < 0))
    {
      LcdCharacter(' ');
    }
    else   
    {
      LcdCharacter(message.charAt(i));
    }
  }
  scrollPosition++;
  if ((scrollPosition >= message.length()) && (scrollPosition > 0))
  {
    scrollPosition = -10;
  }
}

void setup(void)
{
  LcdInitialise();
  LcdClear();
  drawBox();

  gotoXY(7,1);
  LcdString("Nokia 5110");
  gotoXY(4,3);
  LcdString("HELLO WORLD");

}

void loop(void)
{
  gotoXY(4,4);
  Scroll("Scrolling Message from www.arduino.com.es");

  delay(200); 

}


Actuadores Tutoriales
 

Productos y tecnologias usadas en este blog:

  • Copyright © LuneGate™ is a registered trademark.
    Designed by Templateism. Hosted on Blogger Platform.