O fluxo de tensão não pode obter `image.shape` do método em` dataset.map (mapFn) `

10

Estou tentando fazer o tensorflowequivalente a torch.transforms.Resize(TRAIN_IMAGE_SIZE), que redimensiona a menor dimensão da imagem TRAIN_IMAGE_SIZE. Algo assim

def transforms(filename):
  parts = tf.strings.split(filename, '/')
  label = parts[-2]

  image = tf.io.read_file(filename)
  image = tf.image.decode_jpeg(image)
  image = tf.image.convert_image_dtype(image, tf.float32)

  # this doesn't work with Dataset.map() because image.shape=(None,None,3) from Dataset.map()
  image = largest_sq_crop(image) 

  image = tf.image.resize(image, (256,256))
  return image, label

list_ds = tf.data.Dataset.list_files('{}/*/*'.format(DATASET_PATH))
images_ds = list_ds.map(transforms).batch(4)

A resposta simples está aqui: Tensorflow: Corte a maior região quadrada central da imagem

Mas quando uso o método tf.data.Dataset.map(transforms), recebo shape=(None,None,3)de dentro largest_sq_crop(image). O método funciona bem quando eu o chamo normalmente.

Michael
fonte
11
Acredito que o problema tenha a ver com o fato de EagerTensorsnão estarem disponíveis, Dataset.map()portanto a forma é desconhecida. existe uma solução alternativa?
michael
Você pode incluir a definição de largest_sq_crop?
jakub 25/02

Respostas:

1

Eu encontrei a resposta. Tinha a ver com o fato de que meu método de redimensionamento funcionava bem com uma execução ágil, por exemplo, tf.executing_eagerly()==Truemas falhava quando usado dentro dataset.map(). Aparentemente, naquele ambiente de execução tf.executing_eagerly()==False,.

Meu erro foi na maneira como eu estava descompactando o formato da imagem para obter dimensões para o dimensionamento. A execução do gráfico de fluxo tensor parece não suportar o acesso à tensor.shapetupla.

  # wrong
  b,h,w,c = img.shape
  print("ERR> ", h,w,c)
  # ERR>  None None 3

  # also wrong
  b = img.shape[0]
  h = img.shape[1]
  w = img.shape[2]
  c = img.shape[3]
  print("ERR> ", h,w,c)
  # ERR>  None None 3

  # but this works!!!
  shape = tf.shape(img)
  b = shape[0]
  h = shape[1]
  w = shape[2]
  c = shape[3]
  img = tf.reshape( img, (-1,h,w,c))
  print("OK> ", h,w,c)
  # OK>  Tensor("strided_slice_2:0", shape=(), dtype=int32) Tensor("strided_slice_3:0", shape=(), dtype=int32) Tensor("strided_slice_4:0", shape=(), dtype=int32)

Eu estava usando dimensões de forma a jusante na minha dataset.map()função e lançou a seguinte exceção porque estava obtendo em Nonevez de um valor.

TypeError: Failed to convert object of type <class 'tuple'> to Tensor. Contents: (-1, None, None, 3). Consider casting elements to a supported type.

Quando mudei para descompactar manualmente a forma tf.shape(), tudo funcionou bem.

Michael
fonte