Отлично. Ранее был пример детской комнаты с разбросанными игрушками.
Камера над кроватью, отлично :)
Ссылка на кровать? На обороте камеры поидее
получать много почти одинаковых фоток из ролика - неинтересно для тренировки - малая вариабельность ракурса, освещения и тд
зачем выбран посредник лишний - москит- заявлена поддержка питона прям в окне кода, ну или через апи прямо в объекты писать?
Ну в ролике можно поползать под одеялом для вариативности положения тела, а вот с освещением бяда. Хотя если настроить димер на время ролика менять освещение в комнате, то может получится :) С ракурсом не понятно, камера же не будет менять свое положение и кровать относительно камеры тоже.
По поводу камеры над кроватью и которая пишет 24/7, поверьте мои друзья по этому поводу постибались надомной вдоволь! :) Было весело на ровном месте и далеко не 5 минут! Самое безобидное было то, что дом будет распознавать позы из книги "Камасутра" и оповещать всех заинтересованных и не особо людей до какой страницы из книги я сейгодня дошел! ООО, сегодня прогресс, сегодня мы открыли оглавление... )))
Я планирую включать камеру за 30 секунд до включения будильника, что бы дом принимал правильное решение перед своими действиями.
Вопрос: зачем выбран посредник лишний - москит- заявлена поддержка питона прям в окне кода, ну или через апи прямо в объекты писать?
Ваш вопрос я не понял! Не могли ли бы Вы мне свой вопрос задать как говориться на пальцах! Я в первые открыл книгу програмирование для чайников менее года назад и отсюда у меня все вытекающие проблемы с пониманием абривеатур и т.п. лексики! В кратком описании этой статьи/блога я указал "Нейросети для чайников от чайника."! Где последнее слово "чайник" - это ключевое слово на все 100%!
Предложение: проще поставить датчик открытия двери в ванне\ на кухне так четче будет срабатывать, и не надо снимать кровать
Да Вы правы! Но, я планирую в будущем реализовать это https://www.pyimagesearch.com/2019/03/11/liveness-... А для этого мне нужно изучить программирование и нейросети. Чем я и занимаюсь в настоящее время.
newz20 под ракурсом я имел в виду именно ракурс пользователя относительно камеры. типа на левом боку, на спине, калачиком
Вопрос: зачем выбран посредник лишний - москит- заявлена поддержка питона прям в окне кода, ну или через апи прямо в объекты писать?
вы запускаете питоновский скрипт для распознавания, передаете инфу брокеру, тот - модулю москито, а тот засовывает инфу в ваши объекты.
В новостях мдм прошло, что питоновский скрипт можно писать/исполнять в методах/скриптах мдм, причём используя в качестве переменных объекты/свойства мдм.
не правда ли, это короче и без посредников? можно питонский скрипт заставить писать напрямую в объекты/свойства мдм гет-запросами. посмотрите в бз https://kb.mjdm.ru/http-ssilki-dlya-raboti-s-major... или у меня в блоге про распознавалку, там пример на питоне
Xor, СПАСИБО! Буду разбираться...
1) Посмотрите на проект tensorflow. Может анализировать поток видео (не обязательно по-кадрово сохранять видео/картинки...там реально на потоке всё делается)
2) Видел вопросы - как делать нейросети "без картинок из гугла". Любая нейросеть умеет обучаться. По факту достаточно будет 2 фото - пустой кровати и "полной" =D. Обучаете нейросеть, потом по сути нейросеть (пока объясню на фотографиях, без потока) распознаёт с определённой вероятностью - первая это картинка или вторая...если вероятность меньше, допустим, 80% - то просто помещаете картинку в "карантин" (естественно средствами скрипта, не вручную), потом просматриваете картинки из этого "карантина", и кидаете в папки с пустой или полной кроватью (обучающие), и заново обучаете нейросеть. После чего вероятность что-то не распознать в разы уменьшается...как то так.
Собственно автор и делает на tensor flow...
2 картинок не будет достаточно. Мало-мальски сложная сетка, а в ноутбуке проекта используется transfer learning со сложных сетей, просто заучит 2 эти картинки и ничему толком не обучится, будет очень сильный overfiting. Нужны минимум 100 фотографий каждого класса + продуманная аугументация, вариации с яркостью и небольшими сдвигами, тогда возможно, что-то и получится
Кстати нет никакого смысла делать фотки с большим разрешением, так как все сети обучались на картинка, например, 224 на 224 и чтобы траснфер лёрнинг происходил нужно приводить свои картинки к этому же размеру.
Далее - просто записать с камеры за 4 секунды 200 картинок никак не поможет обучить сетку - нужны фотографии с разным освещением, тенями, смещениями камеры и т.д.
И наконец - открытая/закрытая дверь по любому и лучше и быстрее будет определяться датчиком двери, а занятость постели - ёмкостным, в MySensors даже был такой проект - https://forum.mysensors.org/topic/3528/bed-occupan...
Для распознавания лиц сетку использовать конечно самое то, но лучше брать специализированные сетки, обученные получать вектор параметров лица, типа dliba. Вот там да, достаточно пары фотографий для образца. Сетка определяет по фотографиям эталонный вектор, а потом все полученные с камеры векторы сравнивает с эталонным и если они с какой-то степенью достоверности похожи, то выдаёт срабатывание
для определения морды лица - спецкамеру надо ставить, чтоб лицо ан фас и крупно, и морду туда специально совать, как в домофон( я отказался пока
Да нет - вполне хватает обычной камеры. Каким-нибудь каскадом определяем есть ли на кадре лицо и где оно находится, потом это лицо вырезаем и загоняем в нейронку.
спецкамера - имелось в виду - специально выделенная и установленная в месте, откуда лицо хорошо будет видно - обычно на уровне глаз. камеры наблюдения в помещении обычно вверху ставят, они на людей сверху вниз смотрят. а это не очень хороший ракурс. а так-то, да, китайская нормальную картинку дает
У меня вопрос по "API"!
Я не понимаю, как защититься от злоумышленников которые в моей локалке при помощи "API" могут легко прописывать свои значения в моих объектах!?!? Я не хочу сказать, что моя локалка - это "проходной двор"... Уж больно легко при помощи "API" устанавливать значаение свойств объектов!
Ну как вариант - включить логин/пароль для локалки =D...а обычно - в локалке не только при помощи апи, но и при помощи интерфейса вполне себе выставляются свойства))
Yashalta2 - Уж больно легко при помощи "API" устанавливать значаение свойств объектов!
вообще-то апи для этого и пишется)
Пожалуйста, войдите в систему, чтобы добавлять комментарии Присоединиться!