აღწერა
პოზიცია მოიცავს უსაფრთხოების ინჟინერიასა და ხელოვნურ ინტელექტს შორის არსებულ სფეროში მუშაობას, კერძოდ კი AI მოდელებისა და აპლიკაციების უსაფრთხოების უზრუნველყოფას. ძირითადი პასუხისმგებლობებია AI/ML სასიცოცხლო ციკლის უსაფრთხოების კონტროლების დაპროექტება, დანერგვა და შენარჩუნება, AI/ML სისტემებისთვის საფრთხის მოდელების შემუშავება, LLM-ების და აგენტური სამუშაო ნაკადების წითელი გუნდის ტესტირება და შეცდომების გამოსწორება. ასევე, უსაფრთხოების ინტეგრირება მოდელების განვითარების პროცესში, პერსონალური მონაცემების და მგრძნობიარე შინაარსის დაცვა, და AI-ის ტელემეტრიის SIEM და SOC სამუშაო პროცესებში ინტეგრირება. მოთხოვნებია ინფორმაციული ტექნოლოგიების, უსაფრთხოების ან ინჟინერიის სფეროში ბაკალავრის ხარისხი და 7+ წლიანი გამოცდილება, მათ შორის 5+ წელი აპლიკაციის, პროდუქტის ან შემტევი უსაფრთხოების მიმართულებით. საჭიროა AI/ML ან LLM სისტემების შეფასების ან შეტევის პრაქტიკული გამოცდილება. უპირატესობა ენიჭება რეგულირებად ინდუსტრიებში მუშაობის გამოცდილებას და RAG არქიტექტურის, ვექტორული მონაცემთა ბაზების ან აგენტური ჩარჩოების უსაფრთხოების რისკების ცოდნას. სასურველია Python-ის ძლიერი ცოდნა და თანამედროვე ML/LLM ჩარჩოების (LangChain, LlamaIndex, Hugging Face, OpenAI API) ცოდნა. ასევე, მნიშვნელოვანია AI-სთან დაკავშირებული საფრთხის ჩარჩოების (NIST AI RMF, OWASP LLM Top 10, MITRE ATLAS) და მონაცემთა ანალიტიკის ძლიერი უნარები. შესაძლებელია დისტანციური მუშაობა. გთავაზობთ თანამშრომლობით გარემოს, პროფესიული განვითარების შესაძლებლობებს, ბონუსს და აქციებს. ორგანიზაცია უზრუნველყოფს ჯანმრთელობისა და კეთილდღეობის პროგრამებს, როგორიცაა სამედიცინო, სტომატოლოგიური და სადაზღვევო გეგმები, 401(k) პენსიის დაგროვების პროგრამა და ანაზღაურებადი შვებულება.