Ilya Sutskever, cofundador e ex-cientista-chefe da OpenAI, arrecadou US$ 1 bilhão para sua empresa de inteligência artificial, a Safe Superintelligence Inc (SSI), com um valor estimado de US$ 5 bilhões em pouco mais de três meses para a startup. A captação de recursos veio de investidores como NFDG, a16z, Sequoia, DST Global e SV Angel.

A SSI parece ser uma concorrente direta do empreendimento anterior de Sutskever, a OpenAI, com uma missão ligeiramente modificada. O objetivo da SSI, de acordo com seu site, é construir um modelo de IA com mais inteligência do que os humanos de forma segura e protegida. Portanto, ela também poderia competir com a Anthropic, outra empresa fundada por ex-funcionários da OpenAI, que também tem como objetivo criar modelos de IA seguros.

From zero to Hero with ChatGPT

Desbloqueie o potencial do ChatGPT em suas tarefas diárias.

O ponto em que a SSI diverge, até o momento, é em sua afirmação de que desenvolverá apenas um produto: superinteligência segura.

Tanto a OpenAI quanto a Anthropic têm produtos como o ChatGPT e o Claude, mas nenhum deles atenderia à definição de "superinteligência" cunhada pelo filósofo Nick Bostrom em 2014.

Nesse livro, Bostrom fala de um sistema de IA com capacidades cognitivas que excedem em muito as dos seres humanos mais inteligentes. Ele previu, na época, que essa entidade poderia chegar já no "primeiro terço do próximo século".

Não há definição científica ou medida definida para essa "superinteligência". Mas, com base no contexto, pode-se presumir que a SSI está comprometida com pesquisa e desenvolvimento até que possa lançar um modelo de IA que seja comprovadamente mais capaz do que o ser humano médio.