Was bedeutet "Karate"?
Karate ist in erster Linie eine Kampfkunst. Das Wort „Karate“ stammt aus dem Japanischen und bedeutet „leere Hand“. Damit ist gemeint, dass auf jeglichen Gebrauch von Waffen verzichtet wird. Sowohl im Übungs- als auch im Ernstfall kommen nur Arme und Beine bzw. Hände und Füsse zum Einsat.