lunes, 17 de septiembre de 2012

Alpha Dog, el perro robot del Pentágono que ayudará a las tropas estadounidenses



DARPA es la agencia estadounidense que financia la investigación de proyectos avanzados de «defensa». Ideas originales que puedan dar una ventaja a sus soldados en el campo de batalla. Uno de los proyectos que más ha llamado la atención en los últimos tiempos es AlphaDog, una «mula de carga» mecánica.

AlphaDog se ha diseñado para desplazarse con agilidad por terrenos difíciles, aun cuando lleva una importante carga. Rocas, grandes desniveles, suelo mojado e incluso hielo. Es capaz de recuperarse de resbalones, sortear obstáculos, subir escalones, y seguir a un soldado por donde quiera que vaya.

Durante su desarrollo se han presentado varias versiones. La primera, denominada Big Dog, causó gran revuelo en la red —acumula casi 14 millones de reproducciones en Youtube— por lo «orgánico» y biológico de sus movimientos. Parecía un ser vivo. Era el prototipo destinado a probar la estabilidad y el desplazamiento en terrenos difíciles.

Con un diseño similar se presentó Alpha Dog, destinado a aliviar el peso que tienen que transportar los soldados durante las caminatas. Su objetivo es poder llevar 180kg de peso durante más de 30 kilómetros, y ser más silencioso que Big Dog.




Se ha publicado recientemente el vídeo de la tercera versión. Ésta funciona con un motor de combustión y es capaz de seguir a un soldado concreto de manera autónoma en su camino. Desde DARPA lo denominan LS3, Legged Squad Support —«apoyo con piernas para escuadras»—. Una escuadra es la unidad militar más pequeña, y normalmente se compone de entre ocho y doce soldados.

Según aseguran ellos mismos en la descripción del vídeo, «está diseñado con las escuadras en mente», y es «significativamente más silencioso y rápido» que su antecesor Big Dog. También puede transportar más carga. En julio de 2012 comenzó un ciclo de dos años de pruebas junto con el cuerpo de Marines y la U.S. Army para concluir su desarrollo.

En este periodo se pulirán sus capacidades y se perfeccionará su desempeño en tres tareas diferentes: seguir al líder de cerca, hacerlo con una cierta libertad de movimientos y el viaje autónomo hasta un punto determinado en el mapa, sin apoyo humano.

DARPA mantiene simultáneamente varios proyectos de robots inspirados en animales para ayudar a sus tropas. Desde insectos y pájaros espía a un «guepardo» capaz de correr más rápido que un humano.

Referencia: abc

lunes, 3 de septiembre de 2012

Nico, el robot que está aprendiendo a mirarse al espejo





La nueva generación de robots humanoides podrá reconocer su imagen, o al menos eso intenta un investigador de EEUU que ha logrado que un robot identifique el reflejo de su brazo y le enseña ahora a "mirarse" al espejo.

Se llama Nico, y de momento es tan solo una estructura de cables y tornillos, aunque su creador, Justin Hart, doctorando de la Universidad de Yale, le ha puesto ojos y boca e incluso una gorra, que le dan un aspecto de simpático humanoide.

Su misión: aprender a reconocerse en el espejo para saber interpretar los objetos que tiene alrededor algo que, aparte del hombre, sólo hacen unos cuantos mamíferos y que será un gran paso en el mundo de la robótica.

Hart, científico informático y aficionado a la robótica desde niño, comenzó su doctorado en Yale en 2006 y después de hablar del tema con su director de tesis, el profesor Brian Scassellati, se le ocurrieron las primeras ideas "que se han convertido en esta investigación en curso", según contó a Efe.

'Yo', robot
Su trabajo se ha inspirado en la psicología evolutiva y la neurociencia, y trata de mejorar la robótica mediante la incorporación del "yo" en los procesos de razonamiento robótico.

El robot, ataviado con una camiseta de Yale en sus fotos para la prensa, ya ha sido programado para reconocer su brazo reflejado en un espejo, pero el objetivo de Hart es que pase la prueba del "espejo completo".

Nico "registra el movimiento de su brazo en su campo visual y aprende cómo es la estructura del brazo, cómo se mueve a través del espacio, y la relación entre el brazo y su campo visual", según explicó Hart.

El robot construye con sus dos cámaras una imagen en 3D y 2D de dónde espera ver su brazo después de un movimiento y al detectarse en el espejo, como conoce cómo actúa su brazo, sabe con precisión dónde están los objetos en el espacio sobre el que se refleja.

"Sólo se sabe que unos pocos animales son capaces de utilizar espejos como instrumentos para el razonamiento espacial en formas similares a esta", señaló Hart.

Aprende
Para el científico, lo "emocionante" es que el robot "es capaz de utilizar el conocimiento que ha aprendido sobre sí mismo para razonar sobre una cosa que hay en su entorno, el espejo, de una forma que los robots no habían sido capaces de hacer antes".

El siguiente paso en esta investigación es enseñar al robot a construir una idea de "sí mismo" más amplia que incluya su propia estructura en 3D, no sólo la de su brazo, y también información sobre colores, para que aprenda a reconocerse.

Hart quiere someter al robot a la prueba del "espejo completo", diseñada en 1970 por el profesor Gordon Gallup, que mide teóricamente en animales la capacidad que tienen de reconocer su reflejo en un espejo.

"Aunque se han hecho varios experimentos interesantes con robots y espejos en los últimos años, ninguno ha pasado todavía el test completo", algo que Hart espera que Nico haga en los próximos meses.

Con ese objetivo, su equipo ya ha hecho un trabajo previo para identificar los píxeles específicos que representan la imagen del robot cuando son vistos por la cámara que lleva instalada Nico, que son diferentes del resto de objetos registrados.

Referencia espacial
La importancia de entender el concepto del reflejo permite al robot utilizar el espejo como un instrumento de referencia sobre la posición de los objetos en el espacio según aparecen en el reflejo, en otras palabras, es como si utilizara el retrovisor de un coche.

Según Hart, éste es el primer sistema robótico diseñado para tratar de usar un espejo de esta manera, "lo que representa un importante paso hacia una arquitectura cohesiva que permita a los robots aprender sobre su cuerpo y apariencia a través de la auto-observación".

Referencia: elmundo.es

jueves, 30 de agosto de 2012

Proyecto Galatea: comunicacion de datos Quadcopter a Pc y Pc a Quadcopter

Después de 2 semanas pegandome para que funcione esto, lo he conseguido.

Antes de nada es importante presentar los nuevos componentes:

- La IMU Razor 9 y el chip USB-serie:




La IMU es la que esta a la izquierda.



El echo que haya cambiado mi acelerometro y mi giroscopio por esta IMU es principalmente por 3 causas.
Primero porque cuenta con una brújula electrónica que antes o después la iba a tener que comprar para compensar el giro y que no fuera en linea recta dando vueltas.
Segundo porque unifica los 3 componentes en uno solo a través de un microcontrolador solo para realizar las ecuaciones de Gauss lo cual libera al procesador principal (Arduino) de esta carga y centrarse en el control.
Tercero , ultimamente estaba recibiendo datos raros del eje de mi acelerometro (creo que he podido cascarlo).

Es importante decir que el firmware que lleva el Razor 9 no es precisamente la bomba, asi que para hacerlas rápido actualicé a uno que hizo entre otros Jordi Muñoz, y funciona bastante mejor.

- La placa Arduino Mega:



El echo de tener que comprar un nuevo arduino es porque la comunicacion entre varios procesadores y matlab requiere varios puertos de entrada y Arduino Uno solo posee 1, por lo cual no me valía (una compra no esperada....). Pero bueno en un principio este Arduino tiene algo mas de potencia de computo y ahora me salen las entradas y salidas por las orejas.





Por ultimo comentar cual ha sido el proceso.

1) Actualizar IMU.

2) Cargar nuestro software en el Arduino SIN conectar la IMU o el compilador nos dará un error (y cuesta bastante identificar de que es).

3) Desconectamos el USB y conectamos la IMU. Importante conectar la TX de la IMU con la RX del Arduino y viceversa.

4) Abriendo la consola comprobar que estamos recibiendo datos correctos. Nota: la IMU emite a 56k, así que el Braurade desde el Arduino para recoger datos a 56k.

5) Abrimos el Matlab y cargamos nuestro código que contendrá una parte para enlazarse con el Arduino y otra parte para leer los datos emitidos desde el Arduino y otra parte que enviara los datos al Arduino.

Todos estos tutoriales de como se comunica Matlab con Arduino y Arduino con Matlab están colgados en estradas anteriores en la seccion de "Mis robots".

A continuación añado un vídeo paso a paso.



Un saludo.
Mis Robots Proyecto Galatea Tutoriales

lunes, 27 de agosto de 2012

«Miimo», el robot jardinero de Honda

«ASIMO» ha pasado por ser uno de los robots humanoides más avanzados hasta la fecha. Capaz de correr, andar, girarse, y repetir muchos movimientos humanos, fue a comienzos de siglo uno de los grandes avances presentados por HONDA.




La marca japonesa ha lanzado un nuevo miembro robótico, «Miimo», una apuesta por los autómatas modernos. Se trata de un cortacésped inteligente que ahorrará mucho tiempo y esfuerzo a aquellos que tengan su propio jardín.

El nuevo robot es capaz de cuidar el césped adaptándose a la zona y a la extensión para no dejar ninguna zona descuidada.De aspecto poco parecido al cortacésped tradicional, «Miimo» puede mantener la hierba con una longitud de entre 20 y 50 mm. dependiendo de las necesidades.

Uno de los mayores avances de este autómata es que no almacena la hierba cortada si no que la tritura y la lanza haciendo de abono natural, guardando de ese modo la buena salud de las plantas.

No le falta de nada a «Miimo» que cuenta hasta con un sistema antirrobo. Si es levantado durante el trabajo, el robot se para, comienza a sonar una alarma y no vuelve a la marcha hasta que no se ingresa un código pin.

La fecha esperada de lanzamiento es a comienzos de 2013, y se sabe que contará con dos modelos, 300 y 500, cada uno con una capacidad para cubrir más o menos superficie.

Aún queda lejos el universo imaginado por Asimov, pero sin duda el panorama de los autómatas avanza a pasos agigantados gracias a las grandes inversión en investigación y desarrollo.

Referencia: abc.es

jueves, 23 de agosto de 2012

Proyecto Galatea: Arduino -> MatLab (comunicacion quadcopter -> PC)

Bueno pues traemos buenas nuevas, por fin funciona la comunicación Arduino -> Matlab.
La pregunta que estaba haciendo mal?. siempre no saber usa Matlab....

Bien la prueba es simple, engancho mi acelerometro a la entrada analogica 0, y envío los datos al Matlab y que los imprima desde el Matlab.

Código Arduino:

void setup() {
  // inicializar puerto serie
  Serial.begin(9600);   
}

void loop() { 
  int acelerometroX = analogRead(A0);
   // enviar
   Serial.println(acelerometroX); 
}


Código Matlab:

delete (instrfind({'Port'},{'COM3'}));
placa = serial( 'COM3' , 'BaudRate', 9600 );
fopen( placa );


while (true)
   loQueRecibo = fscanf( placa );
   loQueRecibo
end


Cuando declarais: placa = serial( 'COM3' , 'BaudRate', 9600 ). Tened en cuenta el puerto que usáis ( COM3, sera el mismo que estéis usando en el compilador de Arduino), y el BaudRate (9600), debe coincidir con el del Arduino (Serial.begin(9600)).


Con esto tenemos la comunicacion Bi-direccional conseguida entre Arduino y MatLab.
Ahora llegara lo más divertido... en próximas entregas presentare los nuevos componente comprado para el quadcopter, que reunirá la comunicacion Arduino<->Matlab con este componente nuevo.

Un saludo.
Mis Robots Proyecto Galatea

martes, 21 de agosto de 2012

Robots cortadores de espaguetis




Chef Cui es un robot hecho para rebanar los noodles que típicamente se sirven de manera regular a los comensales asiáticos, tal vez suene muy trillado pero, en países como Japón, Corea y China los fideos son un alimento muy cotidiano y la invención de un robot como este si representa una gran ayuda en la cocina de los restaurantes.

El robot que por ahora solo se vende en China solo hace dos cosas, rebanar y vaciar los noodles sobre un tazón de agua aunque, por alguna razón, le incluyeron luces, tal vez para que se vea bonito. El costo de este ayudante de cocina es de unos USD$2,000 y la idea es que pueda remplazar a un ayudante de cocina que al año ganaría unos USD$4,700 por la misma labor.




La demanda por este robot parece ser alta ya que al momento se han vendido 3000 unidades y vienen más en camino.

Referencia: fayerwayer

lunes, 20 de agosto de 2012

Crean robots blandos que cambian de color para camuflarse

Un equipo de investigadores ha desarrollado una nueva ingeniería de robots blandos de silicona que están inspirados en las criaturas como medusas y calamares. Ahora está trabajando en dar a estos robots la habilidad de camuflarse con su entorno, según un artículo publicado en la revista «Science»




Los científicos han desarrollado un sistema que permite a estos robots camuflarse en relación a un color del ambiente o adquirir colores llamativos.

Se trata de una «coloración dinámica» que, según los expertos, tendría múltiples usos, como por ejemplo ayudar a los doctores a planificar complejas cirugías o para que actúen como marcadores visuales que ayuden a las cuadrillas de búsqueda después de un desastre.

«Comenzamos a trabajar en estos robots blandos inspirados en organismos suaves como el pulpo o el calamar. Una de las características fascinantes de estos animales es su habilidad para controlar su apariencia, y eso nos inspiró a llevar esta idea más allá y explorar la coloración dinámica», explica en la nota de prensa Stephen Morin, autor principal del artículo y doctor en Química y Biología Química.

Para este investigador la importancia de esta creación es la adaptación de un modelo de sistema natural sencillo en una idea mucho más grande.

El grupo de investigación partió de varias preguntas: «¿Cómo los animales tienen formas, colores y capacidades como estas?», se cuestionó George Whitesides, líder del equipo. «La evolución quizás los llevó a tener estas formas particulares, pero ¿por qué? Una función de nuestra trabajo en robótica es darles a personas interesadas en este tipo de preguntas un sistema para probar ideas y respuestas», señala.

Robot, paso a paso
Estos robots y sus capas de color se comienzan a desarrollar a partir de modelos creados en impresos 3D y que después se convierten en moldes. La silicona es agregada, señala la nota, en estos moldes para crear microcanales, que son coronados por otra capa de silicona.

Estos mantos pueden ser creadas como hojas separadas que se ubican encima de los robots blandos o incorporados directamente a su estructura. Una vez se tiene todo el aparataje, los investigadores pueden bombear líquidos coloreados a estos canales, causando que el robot imite los colores y patrones de su ambiente.

Al bombear líquidos fríos o calientes en los canales, los investigadores también pueden hacer que los robots se camuflen térmicamente. Otras pruebas también han intentado con líquidos fluorescentes para que brillen en la oscuridad.

El peso y la flexibilidad de las capas de color no ralentizan la locomoción del robot. En estos caso de desarticulan parches que hacen un contraste del brillo similar al del medio ambiente, pero que no afectan la forma del robot.

Pero los investigadores no quieren que estos robots se limiten al camuflaje, sino que también puedan comunicarse. Hasta ahora, Morin prevé que sus robots puedan usar un sistema de localización para relacionarse con otros robots y con el público.

Como ejemplo ha citado la posibilidad de usar máquinas blandas durante la búsqueda y rescate en desastres. En situaciones delicadas, dice, un robot que resalte en su alrededor o incluso brille en la oscuridad puede ser muy útil para liderar equipos de rescate.

Referencia: abc.es



martes, 14 de agosto de 2012

Proyecto Galatea, unión con Matlab (Comunicación Matlab -> Arduino)

Bien pues continuo haciendo experimentos para el nuevo sistema de control y parece que da sus frutos, por ahora necesito conseguir una comunicacion bidireccional entre Arduino y Matlab, para monitorizar que va pasando por "su cabeza".

Por ahora de Arduino -> Matlab, me esta dandos ligeros problemas, ya que por alguna razón solo recibo desde matlab el primer dato, aunque desde el Arduino este mandado mas.

La comunicacion Matlab -> Arduino, funciona correctamente.

Os dejo un resumen del código que se necesita:

Primero arrancamos arduino con este código ( lo que hago básicamente es cambiar la velocidad de un motor desde matlab):

int ledPin = 13;
char * val ="0";

int vel = 120;
int numero = 0;
int tipoUnidad = 0;
int motor = 11;
void setup(){
   Serial.begin(9600);
   equilibrarMotores(); 

   pinMode(ledPin, OUTPUT );
}

void loop(){
   if (Serial.available() > 0) {
     val[0] = Serial.read(); // lee el byte de entrada:     
  
       int num = atoi(val);
       switch(tipoUnidad){
          case 0:
             numero += num*100;
             tipoUnidad++;
             break;
          case 1:
             numero += num*10;  
             tipoUnidad++;      
             break;
          case 2:
             numero += num; 
             analogWrite (motor,numero);                                            
             digitalWrite(ledPin, HIGH);   // enciende el LED
             delay(20);                  // espera por un segundo
             digitalWrite(ledPin, LOW);    // apaga el LED
             delay(20);             
             numero = 0; 
             tipoUnidad=0;            
            
             break;   
           default:   
             break;     
       }   

     Serial.flush();
   } 
}


Luego arrancamos el Matlab y ponemos lo siguiente:

placa = serial( 'COM3' , 'BaudRate', 9600 );
fopen( placa );

fprintf(placa,'%s','160')

El problema de todo esto (al menos que me ha surgido a mi) es que recibimos bytes y hay que tratarlos desde Arduino, y espero que si lo que queremos es un control de vuelo, este parseo no consuma demasiado calculo en la cpu del Arduino, sino no valdrá para nada.

En el   fprintf(placa,'%s','160'), puedes enviar cadenas más largas, tipo : 160145129, pero siempre (al menos para que este codigo funcione) en grupos de 3.

Se me olvidaba , Matlab posee una libreria para Arduuino de pago, (45€ creo), pero creo que no hay necesidad de pagar.

Un saludo.
Mis Robots Proyecto Galatea

Nuevo juguete, a espensas de robotizarlo

Bien, hace tiempo conocí un robotito que se vendía en Japón. Cuando lo vi estas vacaciones en un almacén de venta de todo (en una tienda china china enorme), no me pude resistir XD.

El bicho tiene ciertas carencias y puntos fuertes.

El punto fuerte , es que posee un giroscopio que ayuda mucho al control y lo segundo que es perfecto para la fase 3 de mi proyecto Galatea (por ahora vamos por la 2), si como lo leéis, el cuadcopter quiero que acabe en algo "similar".

Otro punto fuerte es el diseño, que sin ser robusto es deformable lo que hace q los componentes no se dañen (es como si tubiera un airbag alrededor).

Puntos flacos:
- Muy poca autonomía, escasamente 3 o 4 minutos.
- Motores con muy muy poca potencia (poniendo pocas  decenas de gramos extras, no es capaz de levantar el vuelo).


Mis Robots

lunes, 30 de julio de 2012

RP-VITA, un robot para la telemedicina de los creadores de Roomba

La telemedicina se ha convertido en un campo de investigación bastante interesante a la hora de desarrollar soluciones y aplicaciones de todo tipo. Todavía está un poco verde y es que las limitaciones que supone la distancia a veces son muy grandes. Sin embargo eso no quita que para ciertos casos cumpla con su cometido y sea útil.




En este mundillo existen muchos proyectos entre ellos uno que está llevando a cabo los creadores de Roomba. Con el nombre de RP-Vita, y seis millones de dólares de inversión, nace un robot para hospitales que permitirá a los médicos comunicarse con sus pacientes y poder realizar algunas pruebas y análisis sin necesidad de estar en la sala.

En la parte más visual nos encontramos con una pantalla a través de la cual el paciente podrá ver al médico a través de una videoconferencia. Debajo de esta se podrá acoplar un tablet o un ordenador para realizar diferentes acciones. La intención de este robot no es sólo ser un televisor andante sino realmente ser útil.

Para ello, será equipado con diferentes equipos que permitirá hacer diferentes pruebas y análisis para enviar la información al doctor, a la vez que esta se archiva en el historial del paciente. Eso sí, de momento no es completamente independiente y para algunas tareas necesitaremos a un asistente al lado del paciente para poder utilizar el robot.

Su autonomía de cinco horas nos hace pensar que este robot de momento sólo se utilizará para casos puntuales y no de forma más intensa. Aun así es un caso bastante interesante ya que además cuando vaya a terminarse la carga, como ocurre con las aspiradoras robóticas, volverá automáticamente a su base a conectarle a la alimentación.

De momento no hay planes para integrar este equipo en los hospitales así que tendremos que esperar para cruzarnos con este robot en el pasillo de nuestro centro médico más cercano. Lo cierto es que como solución para poblaciones pequeñas puede ser útil o cuando no hay un médico en la zona. Sin embargo, habrá que ver hasta que punto puede ser eficaz y si realmente es capaz de diagnosticar algo más que catarros.

Referencia: xataka

domingo, 22 de julio de 2012

Proyecto Galatea: Remodelacion del chasis

Bien, hay una parte de la historia de la evolucion del chasis que no mostre fotos y es complicado que se note como ha evolucionado:






















Mis Robots

Proyecto Galatea: nuevo entorno

Bien pues el lugar de entrenamiento para hacer el control de vuelo ha ido evolucionando poco a poco al igual que el cuadcopter.

Como en la pasada entrada explique, el cuadcopter fue modificado porque el chasis y el sistema montado tenian 2 problemas;
uno, que tenia mucho ruido y dos, que pesaba demasiado.
Asique aligere todo lo que pude, retire 2 de las 3 baterias, modifique la parte superior, quite el tren de aterrizaje, entre otras cosas.

Esto que supuso? Que la distribucion de pesos vario muchisimo, asique construi una estructura acorde a la nueva zona de entrenamiento, para volver a conseguir saber cuales eran las "velocidades" (PWM) de los motores que me permitian conocer el equilibrio del cuadcopter.

En el entrenador nuevo, se han creado unas medidas de seguridad:






Y para conseguir que solo dependiera de un eje, se improviso la siguiente estrucura:






En la prox entrada adjuntare un video del vuelo.
Mis Robots Proyecto Galatea

lunes, 16 de julio de 2012

Robots que cuidan de los ancianos

Tecnología. Valencia acoge un concurso internacional de tecnología para hacer la vida más fácil a personas mayores o con discapacidad en el que una universidad de Japón compite con un robot de ayuda y compañía para ancianos.




Robots de ayuda y compañía, sensores de movimiento y temperatura, cámaras avanzadas y teléfonos móviles adaptados dan forma a la tecnología que se conoce como "vida asistida por el entorno", traducción literal del inglés Ambient Assisted Living (AAL), cuyo objetivo es hacer que las personas mayores o con discapacidad que viven solas puedan residir en su casa el tiempo que deseen con suficiente autonomía.
Valencia acoge desde ayer una competición internacional única en el mundo en el campo de la AAL. En ella se evalúan los equipos, componentes, programas y aplicaciones informáticas diseñados para el seguimiento de las actividades cotidianas en el hogar de una persona con movilidad reducida. Entre los siete parámetros a examen, se presta especial atención a las caídas o a conductas de riesgo para la salud como pasar mucho tiempo en la cama, dejar de cocinar o no realizar ejercicio.

El concurso está organizado por el instituto Itaca de la Universitat Politécnica de València que trabaja en el desarrollo de las Tecnologías de la Información y Comunicación (TIC), una empresa surgida de este centro investigador, Soluciones Tecnológicas para la Salud y Bienestar (TSB), y el Departamento de Sistemas Informáticos de la Universidad de Sevilla. Los dispositivos a examen se prueban en condiciones reales en un laboratorio que reproduce el interior de una vivienda completamente amueblada.

En la segunda edición de este certamen internacional concurren cuatro universidades, tres de ellas extranjeras. La Chiba University de Japón presenta un robot de ayuda y compañía para ancianos, mientras que la Universidad Dublin City de Irlanda ha desarrollado una "senscam", una cámara avanzada que integra sensores de movimiento y navegación, capaz de detectar la actividad humana mediante el análisis de video.

Desde EE UU llega un equipo de la Carnegie Mellon/Universidad de Utah con sensores que combinan información de deambulación de la persona en el entorno con parámetros fisiológicos tales como pulsaciones de corazón, ritmo respiratorio, temperatura corporal e información de la postura de la persona. Finalmente, investigadores de la Universidad de Sevilla presentan una aplicación para móviles que permiten identificar la actividad de las personas.

Juan Antonio Álvarez, investigador de la Universidad de Sevilla y uno de los examinadores del concurso, explica que el equipo nipón "por razones económicas no ha podido trasladar el robot entero desde Japón, pero ha traído todo el equipo que permite al autómata moverse para seguir a la persona y reconocer la actividad que está haciendo".

Tecnología asequibe y barata

Los "ojos" del robot están compuestos por dos módulos de visión de una conocida marca de consolas de videojuegos, uno para evitar obstáculos y otro para seguir a la persona por todo el hogar. Esto es precisamente uno de los valores que más se tienen en cuenta en el concurso, "el utilizar la tecnología más asequible y barata posible que mejor se adapte al ámbito doméstico", comenta Juan Pablo Lázaro, director de I+D de la empresa TSB.
El coordinador científico del instituto Itaca, Carlos Fernández, insiste en la importancia de recurrir a tecnologías de amplia difusión para abaratar costes. Así, pone como ejemplo que "todos los teléfonos inteligentes Android, y también el iPhone, están equipados con un acelerómetro que se puede adaptar para convertir el móvil en un detector de caídas de las personas mayores, siempre que estas lleven el dispositivo encima".
Lázaro destaca que el fin de este robot, así como el de los sensores, va más allá de detectar caídas pues "se busca que ayuden a prevenir que la persona sufra un decaimiento en su calidad de vida, pues al reconocer las actividades cotidianas que realizan se puede medir si salen o no de casa, si dejan de cocinar, pasan mucho tiempo acostados o no hacen ejercicio".

Una aplicación valenciana en un año
Juan Pablo Lázaro, director de I+D de TSB, anunció ayer que en un año lanzarán al mercado un servicio de ayuda a las familias que cuidan de personas mayores compuesto por un sistema de sensores desarrollado por esta empresa valenciana de tecnologías para la salud derivada del instituto Itaca de la Politècnica. Estos sensores, que ya se han probado en fase de prototipo, detectan cuándo se levanta una persona, si come o realiza alguna actividad y también si sufre una caída cuando el cuidador no está en casa. Este servicio, según Lázaro, se comercializará desde 25 euros al mes, "lo mismo que cuesta el botón del pánico de las empresas de teleasistencia, hasta los 100 euros, dependiendo de las aplicaciones que se contraten". Esta compañía, que nació de la UPV hace cuatro años, emplea a 35 investigadores y desarrolladores de equipos y aplicaciones informáticas.

martes, 26 de junio de 2012

Cocorobo una aspiradora inteligente





Sharp ha desarrollado un robot de limpieza llamado Cocorobo, que utiliza el motor Cocoro de inteligencia artificial.

Este producto es el primero de una serie que tienen planificada de aparatos robóticos que pueden comunicarse con la gente.

Cocorobo dispone de un aparato de reconocimiento de voz desarrollado por Raytron, por lo que puede ser controlado por voz, por los botones o el control remoto.

También se ha dado la capacidad de saludarte, con la idea de que una aspiradora se puede comunicar como un robot mascota.



Referencia: robotic-lab.com
 

Productos y tecnologias usadas en este blog:

  • Copyright © LuneGate™ is a registered trademark.
    Designed by Templateism. Hosted on Blogger Platform.